Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Attenti a Poco F7: può essere il best buy del 2025. Recensione
Attenti a Poco F7: può essere il best buy del 2025. Recensione
Poco F7 5G, smartphone che punta molto sulle prestazioni grazie al processore Snapdragon 8s Gen 4 e a un display AMOLED da ben 6,83 pollici. La casa cinese mantiene la tradizione della serie F offrendo specifiche tecniche di alto livello a un prezzo competitivo, con una batteria generosissima da 6500 mAh e ricarica rapida a 90W che possono fare la differenza per gli utenti più esigenti.
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 05-09-2020, 18:46   #41
Lando72
Junior Member
 
L'Avatar di Lando72
 
Iscritto dal: Jan 2016
Messaggi: 9
Resta che in potenza la 3070 pareggia e supera una 2080ti non contando le nuove tecnologie implementate.

Nvida anche grazie all uscita delle nuove console ha presentato delle schede che asfaltano la serie 2000 e le varie console
Lando72 è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 20:10   #42
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da aemmeddinorosichino Guarda i messaggi
e... invece no
ti stupirà ma è proprio per colpa di gente faziosa e ipocrita come GiA4mmI11.
il powerino!
il comportamento che stai usando disturba comunque tutti.
che lui sia o meno fazioso esprime le proprie idee; quando tu invece crei un account clone (e lo si vede dai 3 messaggi che hai fatto con questo account), crei disturbo a tutti e dai un pessimo spettacolo.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 20:26   #43
Personaggio
Senior Member
 
Iscritto dal: Aug 2013
Messaggi: 2774
Quote:
Originariamente inviato da aald213 Guarda i messaggi
Sono dei ladri. La 3070 consuma quanto una 2080 (220W) - non metto in dubbio che se il costo è inferiore, è certamente un buon acquisto, ma se la paragonano alle 2070, stanno prendendo per i fondelli i clienti.
i 110Wh in più non sono nulla, mica parliamo di portatili che vanno a batteria il desktop è attaccato alla rete elettrica
In ogni caso 110Wh per un ora al giorno tutti i giorni dell'anno, fanno esattamente 39.2KWh che a 0.25€ l'uno sono 9.8€ di spesa per la corrente elettrica in più in un anno!
Cavolo e mo come famo.... 10€ l'anno so troppi, si hai ragione sono proprio dei ladri...
__________________
CPU: Intel i7 7700K 4GHz; GPU: Nvidia GForce GTX1080 8GB (MSI ARMOR 8G); RAM: 2x16GB Corsair Vengeance LPX; SSD: Sandisk 250GB+2TB; HDD: 4TB Seagate Barracuda; MTB: Gigabyte GA-Z170X-Gaming 7; MNT: Acer Predator 35" Z35P UW-QHD; CASE: Corsair ATX 780T; Raffreddamento CPU: Corsair Hydro H115i 280mm NAS: Synology DS1513+ 30TB; Int: 1000@750Mbps (FTTH Fastweb); TEL: OnePlus Nord 2 5G; Steam: [SMC] BIGC@T
Personaggio è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 20:33   #44
andry18
Senior Member
 
L'Avatar di andry18
 
Iscritto dal: Jun 2013
Città: Latina
Messaggi: 7077
Quote:
Originariamente inviato da lucusta Guarda i messaggi
il comportamento che stai usando disturba comunque tutti.
che lui sia o meno fazioso esprime le proprie idee; quando tu invece crei un account clone (e lo si vede dai 3 messaggi che hai fatto con questo account), crei disturbo a tutti e dai un pessimo spettacolo.
Non perderci tempo, tanto starà già ad una decina buona di segnalazioni. Tempo qualche ora e ciaone
andry18 è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 20:58   #45
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da eXeS Guarda i messaggi
Se vuoi ottenere i FLOPS di picco, come da formuletta, che è la stessa usata da Sony ed MS per dichiarare la potenza delle loro console, e da Intel, AMD, ARM, Qualcomm nVidia, ecc... per dichiarare la potenza delle loro CPU e GPU, devi moltiplicare per 2 ottenendo 29.77TF.

La formuletta definisce lo standard per dichiarare i FLOPS, che sia un dato di picco e teorico lo sappiamo tutti, e non ti contesto assolutamente questo su cui sono d'accordo al 100%, ma la tesi iniziale secondo la quale le GPU Ampere rispetto a Turing non sarebbero in grado di eseguire due istruzioni per ciclo di clock, cosa che impedirebbe appunto l'utilizzo del moltiplicatore 2 nella formuletta.
c'è un'incongruenza sui dati che riporta nvidia.
indica che Ampere riesce a svolgere 128 op FP a ciclo di clock per SM.
se ci basiamo sui cudacore che ha una 3080, 8704, e li dividiamo per gli SM che ha, 68, troviamo appunto 128 cudacore a SM.
quindi una sola op FP per cudacore a ciclo di clock.
sulla 2080 TI hai 4352 cudacore in 68 SM, quindi 64 cudacore per SM, ma tu stesso hai riportato che sono FP32 a 2 vie, quindi ne esegue comunque 128.
Fermi, invece, aveva l'impossibilità di usare tutti i 64 cudacore all'unisono; ne usava solo 32 al clock, ma facendo 2 operazioni a FP32 si avevano 64 op FP per ciclo per SM.
risulta esserci quindi un'incongruenza nell'informazione.
se Ampere ha 128 cudacore a SM, dovrebbe farne 256 a clock per SM, non 128 come dichiarato.

non ho ancora un'idea chiara se usino FP32 ad una o due vie, ma già con l'esempio di Fermi puoi capire che non si può usare la formuletta senza capire effettivamente cosa sta succedendo.
la formuletta recita appunto: Flops per clock per unità attive in quel clock.
in Fermi c'era la questione che non erano tutte attive all'unisono.

poi che il dato teorico e pratico si discosti (e anche di molto) è un'altro interessante argomento, ma nvidia ha dichiarato 128 op per SM con 68 SM per clock, quindi il calcolo teorico della potenza grafica lo puoi sicuramente calcolare da quello, e risulta della metà rispetto al dichiarato.

io mi sto facendo l'idea che in Turing, nel momento in cui usavi una delle pipeline della FP32 congli RT core, mettevi in stallo l'altra pipeline o perchè non avevi sufficienti RT core anche per calcolare con l'altra pipeline, ma, in quella circostanza, bastava solo raddoppiare la consistenza di questi, o che era inutile affiancare un'altro RT core alla pipeline FP32 perchè il dataset caricato in L1 e sui registri da cui dipendevano entrambe le pipeline di FP32 era il medesimo e quindi avrebbe prodotto un risultato già calcolato dall'altro, quindi, alla fine, inutile (magari con quel dataset facevi un'addizione su una ed una moltiplicazione sull'altra...).
sdoppiare la L1 e i registri dovrebbe quindi aver permesso di usare un'altro rt core, ma farla comunque a 2 vie avrebbe riportato allo stesso risultato di prima (sarebbe solo diventato grande il doppio tutto).
ecco perchè mi sono fatto l'idea che sia ad una singola via, perchè raddoppi le unità, le rendi indipendenti e puoi quindi sfruttarle indipendentemente, senza stalli di una parte delle unità di elaborazione.
il tutto ti costa perà l'aggiunta di L1 e registri, oltre che di più RT core o meglio di chiamate per gli RT core.

rimane l'incongruenza delle informazioni base che hanno dichiarato...

Quote:
Originariamente inviato da eXeS Guarda i messaggi
La riporto in modo completo, ma non capisco cosa aggiunga...

Ovvero: FMA migliora il MAD eseguendo la moltiplicazione e addizione in un solo passaggio con nessuna perdita di precisione nell'addizione, ed il solo passaggio si riferisce molto al ciclo di clock, e moltiplicazione ed addizione sono operazioni distinte.
su quel documento questa nozione non la trovi espressa esplicitamente;
ti indica:"Most instructions can be dual issued; two integer instructions, two floating instructions, or a mix of integer, floating point, load, store, and SFU instructions can be issued concurrently. Double precision instructions do not support dual dispatch with any other operation."
la trovi su questo
https://www.nvidia.com/content/pdf/fermi_white_papers/p.glaskowsky_nvidia's_fermi-the_first_complete_gpu_architecture.pdf
"22 Figure 7. A total of 32 instructions from one or two warps can be dispatched in each cycle to any two of the four execution blocks within a Fermi SM: two blocks of 16 cores each, one block of four Special Function Units, and one block of 16 load/store units. This figure shows how instructions are issued to the execution blocks. (Source: NVIDIA) "
significa che Fermi riesce ad usare 2 blocchi da 16 cudacore alla volta indipendentemente, ma per effettuare una FMA (o meglio una FFMA) usa un blocco di 16 cudacore schedulato dal primo warp e li combina con le op dell'altro blocco da 16 cudacore, schedulato dal secondo warp.
se deve fare A+B*C, A+B su un cudacore (schedulato da un warp) ed il risultato lo moltiplica per C, schedulato sull'altro warp, facendo il tutto in un clock, ma usando 2 cudacore a doppai via.
Fermi, con 32 cudacore, può effettuare solo 32 FMA, come indica nvidia, a clock per SM.
l'informazione la trovi dove parla del "dual warp scheduler":
"The SM schedules threads in groups of 32 parallel threads called warps. Each SM features two warp schedulers and two instruction dispatch units, allowing two warps to be issued and executed concurrently."
manca però l'informazione che i due warp si devono mischiare per ottenere una FMA, quindi, al massimo, esegue 32 FMA.

visto che i TF si calcolano sulle FMA (EDIT: sulle OP) è da questo dato dovresti partire per il calcolo della potenza totale teorica.
e per Aprere dicono 128 op a clock per SM.

l'icongruenza si estende comunque al conteggio dei trasistors: più del doppio delle unità, arricchite di nuove istruzioni e funzionalità, e meno del raddoppio dei transistors...
sembra assai strana, come cosa ed è indice di un diverso modo di indicare le cose, non di farle (perchè, in finale, non è un'architettura diversa da quanto proposto con turing.. non viene da marte).

ci sono queste incongruenze e sto cercando di capirle, tutto qui....

Ultima modifica di lucusta : 05-09-2020 alle 21:45.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 21:16   #46
MaxVIXI
Senior Member
 
L'Avatar di MaxVIXI
 
Iscritto dal: Apr 2009
Città: Brescia-Padova
Messaggi: 2416
Mamma mia ragazzi quante seghe mentali.

Per me l importante è che vadano bene (e con bene intendo meglio dalla generazione precedente) e che costino "poco"... Del resto chi se ne frega XD
__________________
MacBook Air: M1/8Cpu/8Gpu/16Gb/1Tb Razer Blade Pro 17 2021 Cpu: 10875H (liquid metal) Gpu:Rtx 3070 135 watt Nvme: 2x 1tb Samsung 970 EVO Plus Ram: 32Gb 3200hz Monitor: FullHD 360hz 100%RGB Cuffie: Sony 1000xm3 Mouse: Logitech Mx Master2
MaxVIXI è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 21:19   #47
aald213
Senior Member
 
Iscritto dal: Apr 2011
Messaggi: 406
Quote:
Originariamente inviato da Personaggio Guarda i messaggi
i 110Wh in più non sono nulla, mica parliamo di portatili che vanno a batteria il desktop è attaccato alla rete elettrica
In ogni caso 110Wh per un ora al giorno tutti i giorni dell'anno, fanno esattamente 39.2KWh che a 0.25€ l'uno sono 9.8€ di spesa per la corrente elettrica in più in un anno!
Cavolo e mo come famo.... 10€ l'anno so troppi, si hai ragione sono proprio dei ladri...
Non c'entrano i costi di mantenimento.

La performance dei processori, sia GPU che CPU, si basa sull'efficienza, non sulla scalabilità, dato che esistono limiti termici.

Dato che la performance di GPU e CPU è proporzionale al numero di unità computazionali (anche se con proporzioni differenti), avere efficienze maggiori significa mettere più core, e quindi avere prestazioni superiori.

Sia in termini di CPU che GPU quindi, storicamente, si è sempre preso uno spettro di consumi, e si sono ripartiti i modelli. Le GPU nVidia xx60, ad esempio, erano quelle che non avevano bisogno di alimentazione aggiuntiva.

Se una 3070 consuma quanto una 2080, ma è performante, per dire, il 15% in più, ben venga, ma non è una 3070 in senso proprio, è una 3080. Hanno praticamente fatto un rebranding per fare credere ai polli che l'architettura sia molto più efficiente di quel che sia realmente.

Hanno sicuramente aumentato la scalabilità orizzontale, ma non considero questo aspetto particolarmente esaltante.

Se vogliamo considerare il lato pratico, 110W sono una quantità sigificativa di calore e rumore nel computer, e di conseguenza nella stanza, ma presentano anche problemi ingegneristici (componenti, durata etc.).

Ultima modifica di aald213 : 05-09-2020 alle 21:34.
aald213 è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 21:31   #48
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da MaxVIXI Guarda i messaggi
Mamma mia ragazzi quante seghe mentali.

Per me l importante è che vadano bene (e con bene intendo meglio dalla generazione precedente) e che costino "poco"... Del resto chi se ne frega XD
l'avevo premesso:"in effetti hanno migliorato enormemente il rendimento reale dell'architettura, ma i TF teorici sono diminuiti,ma, d'altra parte, a noi consumatori basta che quelli che riusciamo a sfruttare siano di più."

ora però ci piacerebbe parlare di come hanno fatto... senza che nessuno ci dica che ci stiamo facendo seghe mentali, perchè in un sito di tecnologia uno ci va a scrivere proprio per farsele, non credi?
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 21:33   #49
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da aald213 Guarda i messaggi
Non c'entrano i costi di mantenimento.

La performance dei processori, sia GPU che CPU, si basa sull'efficienza, non sulla scalabilità, dato che esistono limiti termici.

Dato che la performance di GPU e CPU si basa sul numero di unità computazionali (anche se in modo differente), avere efficienze maggiori significa mettere più core, e quindi avere prestazioni superiori. Il Ryzen 2 infatti è stata un'eccezione che nessuno si aspettava.

Sia in termini di CPU che GPU, storicamente, si è sempre preso uno spettro di consumi, e si sono ripartiti i modelli. Le GPU nVidia xx60 erano quelle che non avevano bisogno di alimentazione aggiuntiva.

Se una 3070 consuma quanto una 2080, ma è performante, per dire, il 15% in più, ben venga, ma non è una 3070 in senso proprio, è una 3080. Hanno praticamente fatto un rebranding per fare credere ai polli che l'architettura sia molto più efficiente di quel che sia realmente.

Hanno sicuramente aumentato la scalabilità orizzontale, ma non considero questo aspetto particolaremente esaltante.

Se vogliamo considerare il lato pratico, 110W sono una quantità sigificativa di calore e rumore nel computer, e di conseguenza nella stanza, ma presentano anche problemi ingegneristici (componenti, durata etc.).
però, attenzione: è un TGP e ancora non abbiamo dati reali.
la logica dei consumi potrebbe essere diversa da quella a cui si è solitamente abituati con nvidia.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 21:35   #50
aald213
Senior Member
 
Iscritto dal: Apr 2011
Messaggi: 406
Quote:
Originariamente inviato da lucusta Guarda i messaggi
però, attenzione: è un TGP e ancora non abbiamo dati reali.
la logica dei consumi potrebbe essere diversa da quella a cui si è solitamente abituati con nvidia.
Sono sospettoso, ma me lo auguro
aald213 è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 21:35   #51
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da andry18 Guarda i messaggi
Non perderci tempo, tanto starà già ad una decina buona di segnalazioni. Tempo qualche ora e ciaone
il problema non è quell'account, ma chi lo ha aperto, che sempre qui bazzica con un'altro...
a quelli servirebbe un bel "ciaone", perchè gente così, che non si sa comportare socialmente, non dovrebbe avere il permesso di usare dei social.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 21:36   #52
Gyammy85
Bannato
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18789
Quote:
Originariamente inviato da bonzoxxx Guarda i messaggi
Più il 40% di una 3070?
Ammazza, ok che le console si ottimizzano meglio e con doom eternal abbiamo visto cosa significa ottimizzare, però, sempre sulla carta, una 3070 è, come potenza grezza, quasi il doppio.
No no intendevo che anche la xsx dovrebbe andare il 40% in più della 5700xt, difatti sembra che Navi 22 sia simile alla gpu della xsx
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 21:39   #53
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da aald213 Guarda i messaggi
Sono sospettoso, ma me lo auguro
uno dei problemi delle turing era proprio questo: usavano il TGP sempre, sia che era per rasterizzazione e basta, che quando usavano il dLSS che quando usavano RTX o quando usavano entrambi...
alla fine quei transistors li devi alimentare, e se ottieni un certo livello in rasterizzazione con il massimo del TGP, significa che poi devi togliere potenza al raster per alimentare il resto.
meno potenza elettrica, meno prestazioni (ed in più la limitazione dell'RTX che abiamo tutti visto).

ora è vero che è alto in assoluto, ma se in rasterizzazione una 3080 ti fa 220W e ha prestazioni superiori ad una 2080 Ti da 275W, è stato tutto guadagno...

senza test, però, si deve solo sperare...
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 21:40   #54
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
No no intendevo che anche la xsx dovrebbe andare il 40% in più della 5700xt, difatti sembra che Navi 22 sia simile alla gpu della xsx
non si sà... di sicuro navi ha portato notevoli miglioramenti nello sfruttamento della potenza teorica, visto che si avvicina e spesso supera le Vega V II, che di potenza teorica ne hanno da vendere.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 21:53   #55
Gyammy85
Bannato
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18789
Quote:
Originariamente inviato da lucusta Guarda i messaggi
non si sà... di sicuro navi ha portato notevoli miglioramenti nello sfruttamento della potenza teorica, visto che si avvicina e spesso supera le Vega V II, che di potenza teorica ne hanno da vendere.
Parto sempre dal +50% perf/watt che amd dichiara per rdna2, dato che la 3070 è paragonabile alla 2080ti di conseguenza una vga amd da 220 watt dovrebbe eguagliarla
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 21:59   #56
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da mattxx88 Guarda i messaggi
oddio, lato prestazioni non si può dir nulla, se volevi giocare decentemente in 4k avevi 1 sola scelta, Turing.
lato prezzi lungi da me difenderli visto che ho ancora le emorroidi scoppiate nell`ano (si ho una 2080ti), ma neanche sappiamo che costi han avuto in r&d per poter progettare e sviluppare, ora con Ampere siamo ormai in "economia di scala", la traccia era stata tirata insomma
è una delle tante condizioni che hanno portato a considerare turing un mezzo fail.
vero che se volevi il 4K a 60fps c'era solo la 2080 Ti, ma il FHD con i 60fps lo facevano con una 1650 che era un totale scempio per quel prezzo, mentre l'RTX partiva con una 2060 su cui non si poteva nemmeno usare...

insomma, un colpaccio per il marketing a vendere un modesto prodotto come una meraviglia, ma non è che fa bene all'immagine dell'azienda.
meno di 2 anni fa hai speso 1300 euro per una 2080 Ti e oggi ti ritrovi quelle prestazioni un una 3070 da 499$ (forse, ma comunque è possibile).
ti sei ritrovato a sfruttare l'RTX su poco e nulla e oggi, anche con la 2080 TI, soffriresti comunque in RTX perchè il gradino d'ingresso è comunque la 3070 che va uguale in rasterizzazione, ma in RTX la doppia per tutte le ottimizzazioni che ha avuto.

di sicuro per il classico acquirente che prende il top e poi se lo tiene 4 o 5 anni non è una bella carta da giocare per nvidia per convincerlo a ridargli fiducia, perchè l'hanno giocata proprio sporca per superare l'empasse di quel periodo.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 22:07   #57
terranux
Senior Member
 
L'Avatar di terranux
 
Iscritto dal: Aug 2005
Messaggi: 1990
Quote:
Originariamente inviato da lucusta Guarda i messaggi
è una delle tante condizioni che hanno portato a considerare turing un mezzo fail.
vero che se volevi il 4K a 60fps c'era solo la 2080 Ti, ma il FHD con i 60fps lo facevano con una 1650 che era un totale scempio per quel prezzo, mentre l'RTX partiva con una 2060 su cui non si poteva nemmeno usare...

insomma, un colpaccio per il marketing a vendere un modesto prodotto come una meraviglia, ma non è che fa bene all'immagine dell'azienda.
meno di 2 anni fa hai speso 1300 euro per una 2080 Ti e oggi ti ritrovi quelle prestazioni un una 3070 da 499$ (forse, ma comunque è possibile).
ti sei ritrovato a sfruttare l'RTX su poco e nulla e oggi, anche con la 2080 TI, soffriresti comunque in RTX perchè il gradino d'ingresso è comunque la 3070 che va uguale in rasterizzazione, ma in RTX la doppia per tutte le ottimizzazioni che ha avuto.

di sicuro per il classico acquirente che prende il top e poi se lo tiene 4 o 5 anni non è una bella carta da giocare per nvidia per convincerlo a ridargli fiducia, perchè l'hanno giocata proprio sporca per superare l'empasse di quel periodo.
ma te pensi che i bench mostrati fino ad ora siano pompati oppure no.
terranux è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 22:08   #58
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
Parto sempre dal +50% perf/watt che amd dichiara per rdna2, dato che la 3070 è paragonabile alla 2080ti di conseguenza una vga amd da 220 watt dovrebbe eguagliarla
anche qui ci si deve andare con "grano salis".
il 50% pref/watt, ma non ti dicono riferito a che.
sai meglio di me che se spremi un'architettura, o meglio se lo fai con la scheda in rapporto al suo processo produttivo, i consumi si alzano all'inverosimile.
falo con una 5700 XT magari ci riescono pure, ma farlo con una 5600 XT, che è il medesimo chip, ma usato in condizioni migliori per quel processo (visto che gira massimo a 1750 e non a 2050), è un'altro...
alla peggio, con la 5700 XT si otterrebbe il doppio della prestazione per lo stesso consumo, ma è tutto da vedere.

e poi rimane la questione prezzo....
se prendo la mia 570 e la metto alle condizioni di una 1030, consuma come una candela accesa...
significa che se faccio un chip da 1000mm^2 magari ci riesco anche con navi 10 sullo stesso PP a darti lo stesso risultato, solo che ti costa 8 volte di più, in quanto usa 4 volte più del silicio, ma più della metà dei chip li devo lo stesso buttare...
spendere circa 3000 euro per una ipotetica 6700 XT che va come una 3070 e consuma 110W non è che m'interessi tanto.
la lascio a scaffale e cerco una 5600 xt...
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 22:10   #59
Gyammy85
Bannato
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18789
Quote:
Originariamente inviato da lucusta Guarda i messaggi
anche qui ci si deve andare con "grano salis".
il 50% pref/watt, ma non ti dicono riferito a che.
sai meglio di me che se spremi un'architettura, o meglio se lo fai con la scheda in rapporto al suo processo produttivo, i consumi si alzano all'inverosimile.
falo con una 5700 XT magari ci riescono pure, ma farlo con una 5600 XT, che è il medesimo chip, ma usato in condizioni migliori per quel processo (visto che gira massimo a 1750 e non a 2050), è un'altro...
alla peggio, con la 5700 XT si otterrebbe il doppio della prestazione per lo stesso consumo, ma è tutto da vedere.

e poi rimane la questione prezzo....
se prendo la mia 570 e la metto alle condizioni di una 1030, consuma come una candela accesa...
significa che se faccio un chip da 1000mm^2 magari ci riesco anche con navi 10 a darti lo stesso risultato, solo che ti costa 8 volte di più, in quanto usa 4 volte più del silicio, ma più della metà dei chip li devo lo stesso buttare...
pra, spendere circa 3000 euro per una ipotetica 6700 XT che va come una 3070 e consuma 110W non è che m'interessi tanto.
la lascio a scaffale e cerco una 5600 xt...
Mah, loro misurano il rendimento sempre con lo stesso gioco



dico solo che mi aspetto un salto come da gcn a rdna dato che sempre il +50% perf/watt c'è stato
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 05-09-2020, 22:11   #60
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da terranux Guarda i messaggi
ma te pensi che i bench mostrati fino ad ora siano pompati oppure no.
credo che siano verosimili, ma credo che abbiano scelto giochi in cui le migliorie apportate si esprimono al meglio...
è marketing... non ti preoccupare, la zappa sui piedi non se la danno mai (... da soli, perchè spesso succede visto che non pensano al futuro).
lucusta è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Attenti a Poco F7: può essere il best buy del 2025. Recensione Attenti a Poco F7: può essere il best buy...
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
ChatGPT ora ti ricorda di fare una pausa...
Ultraleggero, compatto, prezzo super di ...
Eureka J15 Ultra scende ancora e la conc...
Processore Ryzen con 16 core e doppia V-...
Potenziare il proprio PC non è ma...
Robot top con autosvuotamento e senza sa...
Perplexity e i "trucchetti" pe...
Samsung Galaxy Watch 7: uno crolla a 159...
Tecnologie da fantascienza: l’iPad adess...
Tuo figlio vuole uno smartphone? Non pri...
Amazon top 7 bestseller, aggiornata: feb...
TSMC produrrà a 2 nm anche in Ari...
Tesla vuole Musk a tutti i costi: propos...
Spotify aumenta i prezzi: da 10,99 a 11,...
Prezzi folli su AliExpress con Choice Da...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 09:54.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1