Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Abbiamo partecipato ad Appian World 2024, evento dedicato a partner e clienti che si è svolto recentemente nei pressi di Washington DC, vicino alla sede storica dell’azienda. Nel festeggiare il 25mo anniversario, Appian ha annunciato diverse novità in ambito intelligenza artificiale
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Primo contatto con il monitor Lenovo ThinkVision 3D 27 che grazie a particolari accorgimenti tecnici riesce a ricreare l'illusione della spazialità tridimensionale senza che sia necessario utilizzare occhialini
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing
Abbiamo visto ancora una volta la Formula E da vicino, ospiti di Jaguar TCS Racing. In questa occasione però curve e rettilinei erano quelli di un circuito permanente, molto diverso dagli stretti passaggi delle strade di Roma
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 20-09-2018, 08:19   #61
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11682
Quote:
Originariamente inviato da HwWizzard Guarda i messaggi
Per favore leggiamo bene quello che si quota, io ho detto che il passo dovrà essere più corto di quello che si temeva.
il problema è quando arrivera Navi, perchè il passo è piu breve solo del 10% e non tiene conto del DLSS che, per quando uscira NAVI, sara gia bello che diffuso...

Quote:
Originariamente inviato da HwWizzard Guarda i messaggi
visto che è OC di fabbrica e tirato al limite e costa il doppio.
costa si, tirato direi proprio di no visti gli OC che raggiungono le schede.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 08:22   #62
Vul
Senior Member
 
Iscritto dal: Nov 2006
Messaggi: 6697
Quote:
Originariamente inviato da Alekx Guarda i messaggi
Cioe' fatemi capire i tes sono eseguiti a 3840 e 2560 risoluzionei che forse utilizzano il 10% dei giocatori ?

L'unica cosa che mi ha impressionato e' il prezzo pompato, per il resto secondo me chi oggi ha una scheda top di gamma di 2 anni puo' saltare tranquillamente questa generazione.
E vorrei ben vedere, tolto Wildlands non c'è un singolo gioco dove la 2080ti non faccia 60 fps a 4k.

A che ti serve vedere 1080p?
Vul è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 08:41   #63
bagnino89
Senior Member
 
L'Avatar di bagnino89
 
Iscritto dal: Aug 2006
Messaggi: 13571
Quote:
Originariamente inviato da lucusta Guarda i messaggi
approposito di consumi...
hai visto che una Vega 56 in hitman a 4K ha l'identico valore prestazionale di una 1080 , ma che alla fine la differenza di consumo è di 20W in più, e tutto questo con una Vega tirata fuori dalla scatola e messa a benchare senza nessun tuning particolare?

hai visto, quindi, che la differenza di consumo quando si usano giochi adatti e si parametrizzano per le prestazioni sono molto meno marcate.

senza poi menzionare la questione che con un buon tuning la 56 consuma uguale e va il 10% in più, e solo una custom 1080 riuscirebbe a sargli dietro, ma non allo stesso consumo di una 1080 FE.
Ah, aspettavo proprio i tuoi commenti notturni deliranti...

In quale universo parallelo una 1080 va come una Vega 56? Solo nel tuo mi sa.

La 56 va in media come una 1070 Ti e con questa la devi confrontare, mentre la 1080 va in media come una 64 e con questa devi confrontarla. Peccato che il sistema con Vega 64 consumi "solo" 118 W in più, un'inezia insomma.

Non parlare di cose che non conosci... Ma tanto che te lo dico a fare, continui a scrivere scemenze a prescindere. Almeno non quotarmi, no...

Quote:
Originariamente inviato da lucusta Guarda i messaggi
e hai anche visto che in hitman le vega 64 "out of the box" non superano i 400W per l'intero sistema, quando invece vengono spacciate per schede che superano i 400W SEMPRE.
Questo non so dove lo hai letto. Diamine, se una Vega 64 consumasse da sola più di 400 W ci sarebbe da preoccuparsi sul serio...

Quote:
Originariamente inviato da lucusta Guarda i messaggi
e ti sei chiesto perchè oggi ti fanno vedere i consumi su hitman, che fino a ieri non l'avrebbero manco preso in considerazione per una cosa del genere?
forse perchè in questo modo un'architettura molto simile a Vega risente meno dei maltrattamenti mediatici e viene fuori che consuma SOLO UN PO' DI PIU' DI UNA PASCAL.
Eh già, perché invece su un altro gioco Turing avrebbe consumato esageratamente di più di Pascal, vero? Perché non lo dimostri invece di blaterare cose a caso?

Media su svariati giochi DX11/12:



Quote:
Originariamente inviato da lucusta Guarda i messaggi
quando ti si dice che l'enorme efficienza di pascal rispetto alle AMD è nella maggior parte dei casi esclusivamente enfatizzata dalla condizione d'uso e dalla pubblicità mediatica che ci fanno sopra è la pura e semplice verità.
Vega consuma più di Pascal, ma non ti credere tanto di più se invece di prendere certi giochi ne prendi altri... dipende molto dal riferimento e dalle prestazioni che ottieni su quel riferimento ed è compito della stampa specializzata non fartelo notare e mandare avanti questa percezione di maggiore efficienza.
I consumi sono chiari: Vega 64 consuma solo 118 W in più di una 1080, che vuoi che siano?

Quote:
Originariamente inviato da lucusta Guarda i messaggi
ma probabilmente sono cose che ti vengono difficili da capire, anche se al tempo ho speso tempo per spiegartele.
Tu non hai spiegato un bel niente, parli solo per partito preso. Come al solito non porti uno straccio di prova per le tue congetture. Quanto non sopporto i complottisti come te... Ma del resto ce li ritroviamo pure a governare, quindi ormai è diventato uno status quo.

Quote:
Originariamente inviato da lucusta Guarda i messaggi
or aprendi una 2080 e mettila sotto i giochi che usavano prima per valutare il consumo (batman, the last of us, crysis), poi vediamo quanto consuma in più rispetto a pascal e vediamo come ti strappi i capelli dalla testa perchè arriva al limite del TDP dantoti 2 fps in più di una 1080 Ti.

apri gli occhi: ti fanno vedere solo quello per cui son pagati e nel modo in cui vuole il pagatore di turno.
chi paga di più vince.
Fammeli vedere 'sti consumi, che aspetti?

Suggerimento: i consumi del grafico di sopra sono mediati su una pletora di giochi DX11.

Tanto so già la tua risposta: Techpowerup? Al soldo di Nvidia, ovvio.

Quote:
Originariamente inviato da lucusta Guarda i messaggi
belle schede, costo alto.

tra sei mesi risulteranno ancora meglio, e non per RTrt e DSLL, ma perchè ci saranno giochi adatti a loro, gioci prettamente DX12.
Congettura. Nei giochi testati qui, e anche da altre testate, in DX12 gli equilibri non cambiano, ma tu ovviamente sai predire il futuro.

Quote:
Originariamente inviato da lucusta Guarda i messaggi
notare il rapporto che c'è tra vega 64 e 1080 FE rispetto a 1080 TI FE e 2080.
dove vega va uguale alla 1080, anche la 2080 va più o meno uguale alla 1080 TI, dove è superiore, anche la 1080 risulta superiore, dove vega è inferiore, la 2080 subisce, il tutto condito tra varie risoluzioni ed i problemi o i miglioramenti della banda ram.

sono schede che adottano un'architettura più DX12 che DX11, e questo lo dimostrano i numeri.
Ma dove, di grazia? Solo tu vedi questi presunti trend, senza capire una cosa molto semplice: DX11, DX12, Vulcan, di per sé non vogliono dire una mazza, la verità è che ogni gioco è sponsorizzato o da Nvidia o da AMD, e quindi a seconda dei casi ci saranno differenze più o meno marcate tra le schede di pari fascia.

Invece no, dobbiamo darci alle congetture più assurde...

Quote:
Originariamente inviato da lucusta Guarda i messaggi
PS:
@bagnino89, se ti avessero fatto vedere solo vecchi giochi DX11 e con un 7700K (come scandalosamente hanno fatto su tom, dove fino a ieri usavano l'8700K), avresti gridato allo scandalo, perchè per una manciata di fps in più ti stanno chiedendo il doppio del prezzo.
Questo è vero anche in DX12 e Vulcan, eh. Solo tu vedi cambiare trend, non so dove però...

Quote:
Originariamente inviato da lucusta Guarda i messaggi
le cose non sono mai come vogliono fartele apparire sulle recenzioni, perchè l'onestà intellettuale ormai si è persa negli anni, in questo settore.
esistono solo le linee guida delle recensioni, da seguire o meno per chi paga di più (o tramite pubblicità, o favori o in soldi sonanti).
ormai è un settore totalmente macerato dal marketing.
E' tutto un complotto, già. Siamo spacciati. L'umanità non ha speranze. Nvidia peggio di Skynet. Speriamo che AMD ci liberi tutti.
__________________
Ryzen 5600 / Prime X370 Pro / 32 GB DDR4 / EVGA Black RTX 3070 / Crucial P5 Plus 1 TB / Crucial MX500 1 TB / Seasonic Focus GX-750 / Dell S2417DG / Edifier R1280T / Synology DS220+ / Pixel 6 / Steam Deck

Ultima modifica di bagnino89 : 20-09-2018 alle 08:56.
bagnino89 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 08:45   #64
Alekx
Senior Member
 
L'Avatar di Alekx
 
Iscritto dal: Mar 2007
Messaggi: 4704
Quote:
Originariamente inviato da Vul Guarda i messaggi
E vorrei ben vedere, tolto Wildlands non c'è un singolo gioco dove la 2080ti non faccia 60 fps a 4k.

A che ti serve vedere 1080p?
Perche' magari ci gioca il 90% dei giocatori ?

Il problema e' che se poi testi questi mostri dal prezzo osceno a 1080P maxato vedrai che una 1070 o una vega ti bastano e vanzano tanto ripeto se fai 200 fps o 150 non ti cambia la vita se spendi 1300 contro 350 invece si.

In un recente sondaggio che avevo lanciato sui monitor con risoluzioni superiori al FHD, 2k o 4k e' venuto fuori che in FHD ci giocano in moltissimi, in 2k piu' di qualcuno, in 4k forse 2 o 3 giocatori. Certo non era fatto su scala mondiale
__________________
Case: Stacker STC-T01 MOD - ASUS ROG STRIX B450-F Gaming - Ryzen 5800X3D - Noctua NH-D14 - 16Gb A-DATA SPECTRIX D41 RGB 3600Mhz - Seasonic Prime 750W Gold - RED DEVIL RX6700XT - M2 512Gb - SSD 250/512GB

Ultima modifica di Alekx : 20-09-2018 alle 08:48.
Alekx è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 08:46   #65
Marko#88
Senior Member
 
Iscritto dal: Apr 2006
Messaggi: 21002
Quote:
Originariamente inviato da Alekx Guarda i messaggi
Cioe' fatemi capire i tes sono eseguiti a 3840 e 2560 risoluzionei che forse utilizzano il 10% dei giocatori ?

L'unica cosa che mi ha impressionato e' il prezzo pompato, per il resto secondo me chi oggi ha una scheda top di gamma di 2 anni puo' saltare tranquillamente questa generazione.
A) Schede video del genere non le prendi per il 1080
B) Più sali di risoluzione/effetti e meno impattano eventuali colli di bottiglia.
Marko#88 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 08:49   #66
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Grandi quanto ? Le nuove unità occupano quasi il 50% dello spazio.
TU104 nonostante ciò ha dimensione poco più grande di GP102 e va di più.

La 2080 è salita di prezzo del 16% rispetto alla 1080 liscia eppure il boost mi sembra sia molto più marcato
scusa se ti correggo, ma le nuove unità usano si e no il 5% del silicio.
è la questione che ci vuole preferibilmente un'architettura DX12 per farle funzionare a dovere che occupa spazio, ma anche pensata solo per il gaming in rasterizzazione (quello che speculiamo farranno le schede turing di gamma inferiore a 2070), e non più con la megacaches necessaria ad una PRO e RT e tensor core, ma solo ed unicamente DX12, alla fine il TU104 sarebbe diventato grande come il GP102.
anche prendendo in considerazione il fatto che la densità per transistor è scesa, ossia che hanno diramato maggiormente i transistors da pascal a turing, probabilmente per farlo correre di più, tra 545mm^2 e 472mm^2 ci passa il silicio per fare un'altro chip...
d'altra parte stai guardando un chip grande come il GP102 che viaggia senza particolari difficoltà a 2.1ghz, ed uno che è ben più grande che lambisce i 1900mhz... a confronto di TU104 il GP102 se li sogna i 2Ghz a consumi accettabili, e per il TU102 non ci sono riferimenti (schede prettamente gaming che possono essere overclockate)... la Titan V, GV100, è una cosa più unica che particolare.

per il prezzo la 1080 liscia è stata presentata a 699$ non a 800.
è da noi, in italia, che ha avuto inizialmente un prezzo di 800 euro, sceso a 770 il mese dopo... ma per lo street price di una 1080 parliamo di 650 euro per fine 2016 e tutto il 2017 (con punte di minimo di 540 euro verso metà 2017... la 1080 non è mai stata realmente presa in considerazione dai veri miner, ma solo dai miner che minavano per ripagarsela).
quindi parlamo comunque di molti soldi in più rispetto alla 1080.
ad oggi non sappiamo effettivamente il costo iniziale delle 2080... potresti ritrovartele a 900 e passa euro per il primo periodo.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 08:55   #67
RaZoR93
Senior Member
 
Iscritto dal: Aug 2008
Messaggi: 3455
Quote:
Originariamente inviato da Alekx Guarda i messaggi
Perche' magari ci gioca il 90% dei giocatori ?

Il problema e' che se poi testi questi mostri dal prezzo osceno a 1080P maxato vedrai che una 1070 o una vega ti bastano e vanzano tanto ripeto se fai 200 fps o 150 non ti cambia la vita se spendi 1300 contro 350 invece si.

In un recente sondaggio che avevo lanciato sui monitor con risoluzioni superiori al FHD, 2k o 4k e' venuto fuori che in FHD ci giocano in moltissimi, in 2k piu' di qualcuno, in 4k forse 2 o 3 giocatori. Certo non era fatto su scala mondiale
Queste GPU non sono destinate a quel 90%.
1080p è ormai fascia bassa.
Che senso ha dedicare GPU enthusiast a risoluzioni low end?
RaZoR93 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 09:01   #68
Alekx
Senior Member
 
L'Avatar di Alekx
 
Iscritto dal: Mar 2007
Messaggi: 4704
Quote:
Originariamente inviato da Marko#88 Guarda i messaggi
A) Schede video del genere non le prendi per il 1080
Infatti ma se ancora e' la risoluzione regina quando il 2k, 4k o risoluzioni altissime saranno di largo consumo la 2080 sara' esposta in un museo.


Quote:
Originariamente inviato da Marko#88 Guarda i messaggi
B) Più sali di risoluzione/effetti e meno impattano eventuali colli di bottiglia.
Nessuno dice il contrario ma se prendiamo l'esempio degli anni passati alcune tecnologie innovative inserite in schede top di gamma sono diventate ad uso e consumo dopo qualche anno quando la scheda oramai la buttavi.
Il Rai Tracing vedrai che non vera' implementato Standard nei giochi se non tra qualche anno e la 2080 sara' oramai obsoleta.

Non dico che non sia un mostro ma dico solo che ad oggi secondo me e' da scaffale e la deve rimanere visti i prezzi da strozzino.
__________________
Case: Stacker STC-T01 MOD - ASUS ROG STRIX B450-F Gaming - Ryzen 5800X3D - Noctua NH-D14 - 16Gb A-DATA SPECTRIX D41 RGB 3600Mhz - Seasonic Prime 750W Gold - RED DEVIL RX6700XT - M2 512Gb - SSD 250/512GB
Alekx è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 09:04   #69
Alekx
Senior Member
 
L'Avatar di Alekx
 
Iscritto dal: Mar 2007
Messaggi: 4704
Quote:
Originariamente inviato da RaZoR93 Guarda i messaggi
Queste GPU non sono destinate a quel 90%.
1080p è ormai fascia bassa.
Che senso ha dedicare GPU enthusiast a risoluzioni low end?
Sicuramente hai ragione, ma la massa e' quella che ti fa fare i soldi.
Poi secondo me vedrai in quanti compreranno la 2080 e ci giocheranno in fhd.
__________________
Case: Stacker STC-T01 MOD - ASUS ROG STRIX B450-F Gaming - Ryzen 5800X3D - Noctua NH-D14 - 16Gb A-DATA SPECTRIX D41 RGB 3600Mhz - Seasonic Prime 750W Gold - RED DEVIL RX6700XT - M2 512Gb - SSD 250/512GB
Alekx è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 09:07   #70
futu|2e
Senior Member
 
L'Avatar di futu|2e
 
Iscritto dal: Sep 2007
Messaggi: 5198
Un pc nuovo con la 2080 fa presto a costare 2000€ escluso un monitor 2k.
Il concetto di massa è al di fuori di questo tipo di mercato. 2000€ sono
una ps4 pro + one x + switch + 15 giochi. A chi sarebbero destinati ste
macchine se non a quei 4 fissati con pc gaming con tutti questi soldi da
investirci.
__________________
Matthewx
futu|2e è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 09:14   #71
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11682
Quote:
Originariamente inviato da lucusta Guarda i messaggi
scusa se ti correggo, ma le nuove unità usano si e no il 5% del silicio.
da dove deriverebbe il calcolo ?
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 09:40   #72
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da lucusta Guarda i messaggi
scusa se ti correggo, ma le nuove unità usano si e no il 5% del silicio.
è la questione che ci vuole preferibilmente un'architettura DX12 per farle funzionare a dovere che occupa spazio
Oltre al cambio di anatomia dei tensor cores, ora c'è anche un RT core per ogni cluster a dire il vero.

Quote:
per il prezzo la 1080 liscia è stata presentata a 699$ non a 800.
1080 599$
2080 699$
Differenza : 16%
Differenza di performance : 38% ( escludendo DLSS, RT e drivers maturi )

E siccome le schede usciranno a partire da oggi, bisognerà ancora attendere qualche settimana affinchè saranno disponibili negli shops e vedere i prezzi reali.

Quote:
Originariamente inviato da AceGranger Guarda i messaggi
da dove deriverebbe il calcolo ?
Dal nulla ovviamente, ennesima farneticazione.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 09:41   #73
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20682
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
si ma il 25% non lo fa con tutto quel silicio.... se ci aggiungi la parte con il DLSS arrivi tranquillamente al 35-40%; e manca la parte RT.

si, ma a quanto ho capito il DLSS non funziona ovunque e comunque, mentre l'RT è sfruttabile in pratica solo con la ti e e nemmeno in 4k. Tutta quella padella e quei prezzi per un 25%? ma anche no grazie! come ho detto nel thread ufficiale sarebbe stato immensamente meglio avere più CC, rop ecc in tutto quello spazio per un boost molto più consistente delle prestazioni e voglio proprio vedere chi avrebbe sentito la mancanza dell'RT (che fino a ieri l'altro manco sapevamo che fosse) cuna tecnologia che, di fatto, non potrà usare quasi nessuno se non chi ha la top...e dovrà cmq ricorrere a compromessi o con la risoluzione o col frame rate con 1300 euro di scheda
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb

Ultima modifica di Ale55andr0 : 20-09-2018 alle 09:44.
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 09:42   #74
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20682
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Oltre al cambio di anatomia dei tensor cores, ora c'è anche un RT core per ogni cluster a dire il vero.

1080 599$
2080 699$
Differenza : 16%
Differenza di performance : 38% ( escludendo DLSS, RT e drivers maturi )

E siccome le schede usciranno a partire da oggi, bisognerà ancora attendere qualche settimana affinchè saranno disponibili negli shops e vedere i prezzi reali.


Dal nulla ovviamente, ennesima farneticazione.

poi ci dici dove stanno le 2018 a 699 però
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 09:44   #75
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
poi ci dici dove stanno le 2018 a 699 però
Le 2018 cosa sono ?
Se non sbaglio quasi tutti i prezzi che vedi ora sono ancora riferiti a disponibilità zero o limitata
Le schede iniziano a poter essere disponibili solo da oggi.
Quando ci sarà una disponibilità diffusa vedrai prezzi migliori.

Ultima modifica di nickname88 : 20-09-2018 alle 09:48.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 09:47   #76
ilario3
Senior Member
 
L'Avatar di ilario3
 
Iscritto dal: Sep 2014
Città: A criticà, in bun tucc!
Messaggi: 1024
Scusate, solo curiosità, ma il software per fare OC automatico, verrà rilasciato solo per la serie 20 o funziona anche con la serie 10?
ilario3 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 10:00   #77
ilario3
Senior Member
 
L'Avatar di ilario3
 
Iscritto dal: Sep 2014
Città: A criticà, in bun tucc!
Messaggi: 1024
Quote:
Originariamente inviato da Alekx Guarda i messaggi
Cioe' fatemi capire i tes sono eseguiti a 3840 e 2560 risoluzionei che forse utilizzano il 10% dei giocatori ?

L'unica cosa che mi ha impressionato e' il prezzo pompato, per il resto secondo me chi oggi ha una scheda top di gamma di 2 anni puo' saltare tranquillamente questa generazione.
Che senso ha fare dei Bench di queste schede a 1080? Chi le prende per il FHD è un folle, il bench l'hanno fato per il 4k e 2k, ovvio
ilario3 è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 10:14   #78
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11682
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
si, ma a quanto ho capito il DLSS non funziona ovunque e comunque, mentre l'RT è sfruttabile in pratica solo con la ti e e nemmeno in 4k.
il DLSS funzionera a discrezione dello sviluppatore come tutto il resto.

l'RT è sfruttabile solo con la 2080Ti con 2 settimane di lavoro.

Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
Tutta quella padella e quei prezzi per un 25%? ma anche no grazie! come ho detto nel thread ufficiale sarebbe stato immensamente meglio avere più CC, rop ecc in tutto quello spazio per un boost molto più consistente delle prestazioni e voglio proprio vedere chi avrebbe sentito la mancanza dell'RT (che fino a ieri l'altro manco sapevamo che fosse) cuna tecnologia che, di fatto, non potrà usare quasi nessuno se non chi ha la top...e dovrà cmq ricorrere a compromessi o con la risoluzione o col frame rate con 1300 euro di scheda

ma anche no, perchè tanto poi ti saresti lamentato alla prossima generazione

il Raster ha raggiunto i suoi limiti che sono irrisolvibili, c'è poco da fare; è almeno un lustro che non c'è un guadagno in resa grafica e l'unica novita è lo spingere in modo becero la risoluzione... poi fa niente se hai le luci che passano attraverso gli oggetti, gli oggetti stessi sono fatti da 2 poligoni, hai riflessi e luci dove invece dovresti avere il buio etc. etc.; senza RT andrai avanti ancora un'altro lustro senza cambiamenti.

- Se per questo nessuno poteva usare nemmeno il FHD a pieni filtri e si andava di SLI, come nessuno riusciva ad usare il 1440p appena uscito e ancora oggi non riesci a usare il 4K.

se ragioni cosi son sempre tutti fail e tu oggi saresti ancora fermo al FHD con la novita dei 120 Hz .

che poi i prezzi siano elevati non ci piove, ma in se non è per nulla un'architettura fail, è un'architettura necessaria; l'hardware di transizione è sempre cosi, è piu sfortunato rispetto a quello a fine ciclo ma prima o poi si deve iniziare, seno non cambiera mai nulla.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 10:29   #79
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Ah, aspettavo proprio i tuoi commenti notturni deliranti...

In quale universo parallelo una 1080 va come una Vega 56? Solo nel tuo mi sa.
hitman?
hai sia il grafico delle prestazioni che dei consumi in game proprio su hitman su questa stessa recensione.
vega 56 = 51 - 88
1080 FE = 52 - 94
vega 64 = 60 - 103

tra l'altro su hitman dipende dai filtri che si usano, visto che il famigerato supporto di hitman in DX12 per AC è solo sui filtri SMAA e SAOA (e non sono impostazioni dei preset di default).

Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
La 56 va in media come una 1070 Ti e con questa la devi confrontare, mentre la 1080 va in media come una 64 e con questa devi confrontarla. Peccato che il sistema con Vega 64 consumi "solo" 118 W in più, un'inezia insomma.
peccato che quei 118W valgono il 14% in più di prestazioni e che qui stanno usando un 8700K overclockato.
non è affatto detto che serva un 8700K overclockato per spremere da vega i 103fps a 1440p, ma è molto più probabile che questa è la condizione inevitabile per averli con una gtx 1080.
quindi i 385W di Vega 64, senza nessun tuning particolare, potrebbero diventare solo 300 perchè un 8700K in overclock può arrivare a consumare 180W a 5ghz contro i 95W del settaggio normale.
al consumo della 1080, invece, devi aggiungerci comunque quei 90W di overclock se vuoi ottenere questi numeri...
vedi che quindi la questione consumo si ridimensionerebbe drasticamente già solo così, senza nemmeno mettersi a fare un tuning di fino alle vega (cosa assai impegnativa).

Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Non parlare di cose che non conosci... Ma tanto che te lo dico a fare, continui a scrivere scemenze a prescindere. Almeno non quotarmi, no...
continui ad avere la solita frase nel tuo profilo...
diamogli un senso a quella frase, ma aderente a quanto è scritto:
"Le Pascal non sono efficienti..." almeno non tanto quanto te le mostrano di solito nelle review per stroncarle...



Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Questo non so dove lo hai letto. Diamine, se una Vega 64 consumasse da sola più di 400 W ci sarebbe da preoccuparsi sul serio...
test di Igor di tomshardware.de sulla recensione, in italiano, di tomshw.it che tanti appassionati con "marcate conoscenze" sbandierano appena qualcuno parla di vega...
"chi Vega? vega è un fail che consuma 400W"
vega 64 consuma 400W sotto l'overclock estremo meno tunnato del mondo, ad alzare a manetta la stanghetta e senza capire come effettivamente si deve regolare: dal voltaggio e non dalle frequenze massime.
tra l'alto l'hai scritto anche te ed è per questo che te lo sto rinfacciando, giusto perchè ora qui hanno fatto un test che confuta del tutto le teorie degli "anticomplottisti".



Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Eh già, perché invece su un altro gioco Turing avrebbe consumato esageratamente di più di Pascal, vero? Perché non lo dimostri invece di blaterare cose a caso?
non parliamo di Turing, ma delle pascal.
in un altro gioco la 2080 TI potrebbe consumare sempre quel livello di energia, ma andare a 2 fps in più di una 1080 TI.
prendi GTA V o Arma III e vediamo come se la cava turing con quei giochi.
è un'architettura DX12 e sarebbe più impegnata a cercare di funzionare in DX11 che a generare frame, te lo assicuro.
è l'identico problema che si ha con vega: i giochi di oggi sono pensati principalmente per le pascal, quelli di ieri erano esclusivamente per le pascal.
stesso AOTS: Pascal non usa AC, e te lo possono confermare direttamente gli sviluppatori, e qui vediamo una comparazione sulle DX12 fatta esclusivamente per vedere come va in AC dove c'è una scheda che non usa AC, o come su Hitman che spacciano DX12 AC quando sono i FILTRI ad avere quella proprietà di computo, non il gioco... e quindi ti dicono che testano hotman DX12 AC ma disabilitano quei filtri...
è solo una palese presa per i fondelli.



Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
I consumi sono chiari: Vega 64 consuma solo 118 W in più di una 1080, che vuoi che siano?
in hitman, quando fa il 14% in più di una 1080....
che vuoi che sia...



Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Tu non hai spiegato un bel niente, parli solo per partito preso. Come al solito non porti uno straccio di prova per le tue congetture. Quanto non sopporto i complottisti come te... Ma del resto ce li ritroviamo pure a governare, quindi ormai è diventato uno status quo.
le hai sempre chieste, ora te le hanno fornite direttamente le review.
leggi e capisci.



Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Suggerimento: i consumi del grafico di sopra sono mediati su una pletora di giochi DX11.

Tanto so già la tua risposta: Techpowerup? Al soldo di Nvidia, ovvio.
no...
il consumo medio (e non il valore medio calcolato sulla media dei consumi) su un non ben precisato gioco su un gruppo di giochi DX11.
ed il problema risiede proprio sulla questione:
DX11=esaltazione di Pascal
Pascal= ci vogliono CPU a millemila ghz, per vega no è così sui DX12
consumi senza rapportarli alle prestazioni puntuali: sul gioco x va tot e consuma tot.

e, altra cosa, sono tutti al soldo d'nvidia, perchè hanno firmato l'NDA che non gli permette di essere obbiettivi ed indipendenti.
se non lo firmavano non avevano le schede da testare.

Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Congettura. Nei giochi testati qui, e anche da altre testate, in DX12 gli equilibri non cambiano, ma tu ovviamente sai predire il futuro.
vai su toms che hanno provato anche come va in GTA V... il 5% in più, altro che 25% medio...
tra un chip da 472 e uno da 754mm^2... bello sforzo, direbbe un osservatore distratto.
la questione invece è che GTA V è il peggior gioco possibile per una scheda DX12.


Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Ma dove, di grazia? Solo tu vedi questi presunti trend, senza capire una cosa molto semplice: DX11, DX12, Vulcan, di per sé non vogliono dire una mazza, la verità è che ogni gioco è sponsorizzato o da Nvidia o da AMD, e quindi a seconda dei casi ci saranno differenze più o meno marcate tra le schede di pari fascia.

Invece no, dobbiamo darci alle congetture più assurde...
la questione è che ogni gioco è sponsorizzato da nvidia, ma fino a ieri se lo ottimizzavi solo per AMD sulle nvidia (70% del mercato) andava da schifo, ma schifo realmente, tanto da costringerti a non usare le vere prerogative delle DX12, sennò l'avresti venduto solo ad alcuni appartenenti a "quegli sfigati" che hanno AMD.
quindi sponsorizzato Nvidia significa che gira ottimamente su nvidia e in modo pessimo su AMD;
sponsorizzato AMD significa che gira comunque bene su nvidia, e molto meglio del solito su AMD.
questo significa la sponsorizzazione, perchè non può controvertire le leggi del commercio: fare una cosa e venderla a più persone possibile.

Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
Questo è vero anche in DX12 e Vulcan, eh. Solo tu vedi cambiare trend, non so dove però...
negli ultimi giochi usciti nel 2017 c'è stato un netto miglioramento prestazionale dell'architettura AMD (ma anche di quelle delle schede vecchie), segno che si stanno adottando sempre più questioni da DX12 (multithread e aumento delle draw call principalmente).
e questo trend sarà sicuramente accellerato dall'introduzione di un'architettura DX12 di nvidia, qual'è turing.



Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
E' tutto un complotto, già. Siamo spacciati. L'umanità non ha speranze. Nvidia peggio di Skynet. Speriamo che AMD ci liberi tutti.
non è un complotto, ma mosse commerciali unita a sana ignoranza delle persone...
d'altronde il marketing vive sull'ingenuità del pubblico.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 20-09-2018, 10:32   #80
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
da dove deriverebbe il calcolo ?
dal die shot del TU102.
lucusta è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA Appian: non solo low code. La missione è ...
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini Lenovo ThinkVision 3D 27, la steroscopia senza o...
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing La Formula E può correre su un tracciato ...
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming Lenovo LEGION e LOQ: due notebook diversi, stess...
Nothing Ear e Ear (a): gli auricolari per tutti i gusti! La ''doppia'' recensione Nothing Ear e Ear (a): gli auricolari per tutti ...
Il 5 maggio torna la Maratona Fotografic...
Teatro dei Vitellini - Regia di Gian Pao...
Phi-3 Mini, il modello IA di Microsoft c...
D-Wave annuncia la disponibilità ...
AWS aggiorna Amazon Bedrock con nuove fu...
Sonos: in arrivo un restyling completo p...
La Russia ha condannato il direttore del...
Dead Island 2 arriva finalmente su Steam...
Era già il tablet più conv...
Razer Viper V3 Pro: il mouse da gaming w...
Noctua NH-L12Sx77: il dissipatore per bu...
AVM FRITZ!Repeater 1200 AX: il più vendu...
Apple presenterà i nuovi iPad il ...
SAP introduce l'IA nelle sue soluzioni p...
OnePlus lancia in Europa il nuovo Watch ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 01:13.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www2v
1