Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

ASUS Zenbook A14, dove autonomia e design si fondono
ASUS Zenbook A14, dove autonomia e design si fondono
Basato su piattaforma Qualcomm Snapdragon X, il nuovo ASUS Zenbook A14 è un notebook sottile e leggero che punta tutto sulla produttività lontano dalla presa di corrente. Forte di una elevata autonomia con batteria, ha uno chassis in Ceraluminium che abbina robustezza a un feeling al tatto unico.
Recensione HUAWEI Mate X6: il foldable più interessante, ma con qualche limite
Recensione HUAWEI Mate X6: il foldable più interessante, ma con qualche limite
HUAWEI Mate X6 è uno degli smartphone pieghevoli più interessanti del 2025. Questa recensione esplora il design innovativo e le prestazioni del dispositivo, ma mette in luce anche i limiti software imposti dagli USA. Le carenze hardware e software potrebbero influenzare l'esperienza utente, per un dispositivo che rimane comunque un riferimento nella categoria. Un dispositivo che stupisce, insomma, ma con qualche compromesso da considerare soprattutto in virtù del prezzo di listino elevato.
Sapphire NITRO+ Radeon RX 9070 XT recensione: una GPU AMD con connettore 12V-2x6
Sapphire NITRO+ Radeon RX 9070 XT recensione: una GPU AMD con connettore 12V-2x6
La NITRO+ di Sapphire torna in edizione Radeon RX 9070 XT. Un nuovo design più squadrato con una griglia laterale, un backplate estetico opzionale, l'assenza del dual BIOS ma, soprattutto, un connettore 12V-2x6 che di rado si vede in casa AMD sono le caratteristiche di questa scheda video custom.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 22-02-2020, 21:10   #45721
thunderforce83
Bannato
 
Iscritto dal: Oct 2016
Messaggi: 1164
Quote:
Originariamente inviato da mikael84 Guarda i messaggi
Non ho letto l'articolo, ma dato uno sguardo ai grafici, se fosse confermato sarebbe un salto netto ed impressionamente.

praticamente hanno raddoppiato le unità fp per SM ed i tensor core da 8 a 16.
Tanta roba, se pensiamo alla 2080ti che riesce difficilmente a gestire 4352cc a certi clock.

L'idea è buona, perchè lascia invariato tutto il resto, come le TMU, LDS-SFU, rop's e non serve lo scaling a 6 GPC.
Chiaramente alcuni stadi moltiplicatori come geometria, rbe, BW, Texture rimangono limitanti, se non ci sarà un boost clock appena decente.

Migliora la l1 che passa da 96kb a 128kb, ma ora i cuda sono 128 non 64.
Peggiora l'efficienza istruzioni, che torna a calare a 512, anzichè 1024 per cc.

Da visualizzare il ratio RT core.



Se ciò fosse vero, la 3080ti passerebbe a qualcosa come 7680cc , ma stadi moltiplicatori finali appena superiori ad una 2080 (geometria uguale), rop's 80, 320bit, 20gb (qua la doppia densità è obbligo per un chip TI).

La 3080 passerebbe da 3072cc a ben 6144cc, ma stadi moltiplicatori identici alla 2080 (salvo però il clock del cambio nodo).
Quindi anche qua 16gb sono obbligo.

Sembra anche logico, ma le prestazioni sarebbero spaventose sotto calcolo puro, se poi fosse accompagnato da un buon clock, che sicuramente non sarà elevatissimo con questi CC.

mikael leggere i tuoi report e' sempre un piacere
non avevo dubbi che il salto sarebbe stato ragguardevole...
tecnicamente il 50% minimo di rendimento in piu' rispetto a turing e' confermato quasi sicuramente, come e' confermato che la 2080ti diventera' di colpo una scheda mid level in un batter d'occhio all'uscita delle nuove.

Ultima modifica di thunderforce83 : 23-02-2020 alle 00:36.
thunderforce83 è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 04:38   #45722
Ton90maz
Bannato
 
Iscritto dal: Aug 2013
Messaggi: 2455
Comunque non mi entusiasmerebbe. Mi sembra fin troppo costruita in ottica ray tracing, che sarà sì il futuro ma rischia di saltare fuori un'altra generazione complessivamente insoddisfacente. Il clock, salvo stravolgimenti, più di tanto non può fare.
Ton90maz è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 11:41   #45723
Acme
Senior Member
 
L'Avatar di Acme
 
Iscritto dal: Sep 2005
Città: Firenze
Messaggi: 615
Una cosa sembra certa, anche a questo giro non vedremo il chip full per il mercato gaming.
IMHO
Acme è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 11:51   #45724
Ton90maz
Bannato
 
Iscritto dal: Aug 2013
Messaggi: 2455
Quote:
Originariamente inviato da Acme Guarda i messaggi
Una cosa sembra certa, anche a questo giro non vedremo il chip full per il mercato gaming.
IMHO
Dipende da cosa tireranno fuori Rosy Bindi e co. e dalle rese
Se avessero avuto una navi cazzuta vedi se invidia non ti tirava fuori la 3080 Ti Super con tutti i cinesini vivi (o il minor numero possibile di mutilazioni) e 12 GB di RAM più veloci
Ton90maz è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 12:02   #45725
Nurabsa
Senior Member
 
L'Avatar di Nurabsa
 
Iscritto dal: Jun 2014
Città: Emirates of Trinacria
Messaggi: 2523
Quote:
Originariamente inviato da thunderforce83 Guarda i messaggi
e' anche quello il divertimento secondo me
due mesi e quatto sul mercatino mi sembra eccessivo.magari la tieni un annetto eppoi vai di muletto aspettando le nuove vga.
scheda potente? la 980ti? mmm...
se consideri che la mia da pochi euro va come la tua non credo sia tanto piu' potente oggi...
se consideriamo che le nuove ampere saranno un balzo notevole lato PP e tutto quello che ne viene mi sa' mi sa' che anche la 2080ti diventera' subito una scheda poco potente all'uscita delle nuove...

Valuto un prodotto nella sua interezza.
Non so che 980ti hai avuto ma la mia spinge come una pascal.

Ci faccio di tutto dall elaborazione cuda ai titoli 4k.
Come specifiche gm200 elabora 5.1 indice cuda, gp102 6.1,tu102 7.5
I software professionali richiedono un minimo di 3 IC.
Sapere che una scheda di 5 anni fa segna piu di 5 mi ha fatto risparmiare tanti bei soldini.

Una gk110 (780ti) segna 3.5 I.C.
Come vedi non c'è proporzione tra tempo trascorso e modelli usciti.
Fortunatamente il big chip della serie 900 ha staccato di netto.
Per avere un salto simile dalla serie 9 ci vuole turing.

Sui giochi non mi lamento gira tutto meglio di quando l ho comprata.
Tomb raider in 4k dx12 non andava bene 5 anni fa. oggi gira meglio delle 11.

Non la penso come te ma è sempre bello confrontarsi scoprire come cambia l impiego della vga da persona a persona

p.s.
Vengo da chip medio bassi gm204,gf106.
Quelli si che dopo 5 anni sempre in base alle esigenze personali potrebbero rivelarsi arrugginite.

Quote:
Originariamente inviato da mikael84 Guarda i messaggi
Top del top ai tempi, ormai è una 1660ti/super meno aggiornata.
Eresia

logicamente piu passano gli anni e piu un chip medio si avvicina al top di ieri 16. anche l altro ieri i mitici 28
Ma la proporzione non è mai stata quella che dici tu.
Non c'è una regola fissa certi chip tengono la prova del tempo meglio di altri.

*Ti ricordo che g84 80nm maggio 2007 (8600mgt) gestisce h264 (per gli amici streaming in fhd senza peso sulla cpu/gpu) in hw quando ancora si prendeva l'acqua col secchio dal pozzo.
La stessa feature è di gran moda oggi netflix,prime video etc, ma nel lontano 2007 nel portatile dal quale ti scrivo non sapevo che farmene insieme all hdmi 1.1 on board
A volte le case (raro) anticipano i tempi con tecnologie inutili sul momento.*

I fattori che incidono sono molteplici : cpu,mb,ram,pannello usato.

Poi cambia tantissimo da come è programmato un titolo motore geometrico etc, tutte cose che sai benissimo e che spieghi bene quando ne hai voglia.

L altro giorno non capivo perche un gioco richiedesse l oc dell cpu e un altro simile no (per avere i 60).
Cercando leggo che uno usa physx e l altro havok. gia solo questo fa il bello e il cattivo tempo nelle stesso sistema.

Potrei aggiungere la corretta configurazione del pannello.
Fondamentale vieni prima dei frame erogati dalla vga.

Uso una tv che ha tutta una serie di parametri da configurare prima di andar bene fluida sincronizzata al meglio.
Pena potrei fare uno sli di 2080ti e avere sempre scatti a fifa tra motion scene e gameplay per dire.
Molto piu rognose dei monitor da questo punto di vista.

Concludendo quando una persona colta (quando vuole) come te mi semplifica ragionamenti molto complessi e impossibili da generalizzare (dovremmo avere tutto li stesso hw) mi domando : cosa ci guadagna a far cambiare vga a poveri cristi che leggendoti pensano che la performace dipenda solo dalla scheda video?
__________________
DAC/SDM Sabre9018K2M~HQP~storie di artigianato
Sea TX 1.6kW ATX 3.0+TX 1kw~MEG GOD HEDT X99(2036)~5960X 4.3air/ring 4~RipjawsV 16 3.2(samsung )~980Ti K|NGP|N air+300core+600gddr5(samsung )~FALD 65QN95A

Nurabsa è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 12:11   #45726
Acme
Senior Member
 
L'Avatar di Acme
 
Iscritto dal: Sep 2005
Città: Firenze
Messaggi: 615
Quote:
Originariamente inviato da Ton90maz Guarda i messaggi
Dipende da cosa tireranno fuori Rosy Bindi e co. e dalle rese
Se avessero avuto una navi cazzuta vedi se invidia non ti tirava fuori la 3080 Ti Super con tutti i cinesini vivi (o il minor numero possibile di mutilazioni) e 12 GB di RAM più veloci
Aspetta e spera.
É proprio quello il problema, AMD.
Se non tira fuori prodotti competitivi nvidia può gestire il mercato a piacimento e a rimetterci saremmo soltanto noi.
IMHO
Acme è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 12:27   #45727
thunderforce83
Bannato
 
Iscritto dal: Oct 2016
Messaggi: 1164
Quote:
Originariamente inviato da Nurabsa Guarda i messaggi
Valuto un prodotto nella sua interezza.
Non so che 980ti hai avuto ma la mia spinge come una pascal.

Ci faccio di tutto dall elaborazione cuda ai titoli 4k.
Come specifiche gm200 elabora 5.1 indice cuda, gp102 6.1,tu102 7.5
I software professionali richiedono un minimo di 3 IC.
Sapere che una scheda di 5 anni fa segna piu di 5 mi ha fatto risparmiare tanti bei soldini.

Una gk110 (780ti) segna 3.5 I.C.
Come vedi non c'è proporzione tra tempo trascorso e modelli usciti.
Fortunatamente il big chip della serie 900 ha staccato di netto.
Per avere un salto simile dalla serie 9 ci vuole turing.

Sui giochi non mi lamento gira tutto meglio di quando l ho comprata.
Tomb raider in 4k dx12 non andava bene 5 anni fa. oggi gira meglio delle 11.

Non la penso come te ma è sempre bello confrontarsi scoprire come cambia l impiego della vga da persona a persona

p.s.
Vengo da chip medio bassi gm204,gf106.
Quelli si che dopo 5 anni sempre in base alle esigenze personali potrebbero rivelarsi arrugginite.



Eresia

logicamente piu passano gli anni e piu un chip medio si avvicina al top di ieri 16. anche l altro ieri i mitici 28
Ma la proporzione non è mai stata quella che dici tu.
Non c'è una regola fissa certi chip tengono la prova del tempo meglio di altri.

*Ti ricordo che g84 80nm maggio 2007 (8600mgt) gestisce h264 (per gli amici streaming in fhd senza peso sulla cpu/gpu) in hw quando ancora si prendeva l'acqua col secchio dal pozzo.
La stessa feature è di gran moda oggi netflix,prime video etc, ma nel lontano 2007 nel portatile dal quale ti scrivo non sapevo che farmene insieme all hdmi 1.1 on board
A volte le case (raro) anticipano i tempi con tecnologie inutili sul momento.*

I fattori che incidono sono molteplici : cpu,mb,ram,pannello usato.

Poi cambia tantissimo da come è programmato un titolo motore geometrico etc, tutte cose che sai benissimo e che spieghi bene quando ne hai voglia.

L altro giorno non capivo perche un gioco richiedesse l oc dell cpu e un altro simile no (per avere i 60).
Cercando leggo che uno usa physx e l altro havok. gia solo questo fa il bello e il cattivo tempo nelle stesso sistema.

Potrei aggiungere la corretta configurazione del pannello.
Fondamentale vieni prima dei frame erogati dalla vga.

Uso una tv che ha tutta una serie di parametri da configurare prima di andar bene fluida sincronizzata al meglio.
Pena potrei fare uno sli di 2080ti e avere sempre scatti a fifa tra motion scene e gameplay per dire.
Molto piu rognose dei monitor da questo punto di vista.

Concludendo quando una persona colta (quando vuole) come te mi semplifica ragionamenti molto complessi e impossibili da generalizzare (dovremmo avere tutto li stesso hw) mi domando : cosa ci guadagna a far cambiare vga a poveri cristi che leggendoti pensano che la performace dipenda solo dalla scheda video?
mi dispiace dirtelo ma la vedo molto difficile una 980ti che spinge piu' di una 1080ti...se consideri che ad ogni salto di generazione i consumi diminuiscono drasticamente avere una scheda vecchia diventa sconveniente su ogni fronte,visto che la mia fa come una 980ti e consuma 100watt in full load con le ventole quasi spente, senza togliere ottimizzazioni ecc che purtroppo con le schede dall'archittetura obsoleta non hai, certo ognuno sa per cosa usa il pc e ci tiene la scheda che vuole, ma e' indubbio che cambiare ad ogni generazione e' la cosa migliore da fare per avere prestazioni sempre al top,consumi e relativo rumore,eppoi non perderci troppo sull'usato.
Fino a qualche giorno fa avevo la 2080ti ma l'ho cambiata proprio in previsione di prendere le nuove.
alla fine si il confronto e' sempre bello se fatto con rispetto ed esperienze di uso personale che cambiano da persona a persona
thunderforce83 è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 12:55   #45728
Kostanz77
Senior Member
 
L'Avatar di Kostanz77
 
Iscritto dal: Apr 2011
Città: Ravenna
Messaggi: 5737
Quote:
Originariamente inviato da thunderforce83 Guarda i messaggi
mi dispiace dirtelo ma la vedo molto difficile una 980ti che spinge piu' di una 1080ti...se consideri che ad ogni salto di generazione i consumi diminuiscono drasticamente avere una scheda vecchia diventa sconveniente su ogni fronte,visto che la mia fa come una 980ti e consuma 100watt in full load con le ventole quasi spente, senza togliere ottimizzazioni ecc che purtroppo con le schede dall'archittetura obsoleta non hai, certo ognuno sa per cosa usa il pc e ci tiene la scheda che vuole, ma e' indubbio che cambiare ad ogni generazione e' la cosa migliore da fare per avere prestazioni sempre al top,consumi e relativo rumore,eppoi non perderci troppo sull'usato.

Fino a qualche giorno fa avevo la 2080ti ma l'ho cambiata proprio in previsione di prendere le nuove.

alla fine si il confronto e' sempre bello se fatto con rispetto ed esperienze di uso personale che cambiano da persona a persona


Addirittura già cambiata in previsione Ampere?......mi sembra un po’ troppo presto


Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
__________________
https://imgur.com/a/X2cXcev
Kostanz77 è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 15:29   #45729
mikael84
Moderatore
 
L'Avatar di mikael84
 
Iscritto dal: Mar 2007
Messaggi: 22224
Quote:
Originariamente inviato da maxmix65 Guarda i messaggi
Per me povero mortale in % che differenza prestazionale ci potrebbe essere tra 3080ti-2080ti e 3080-2080 super
Quote:
Originariamente inviato da thunderforce83 Guarda i messaggi
mikael leggere i tuoi report e' sempre un piacere
non avevo dubbi che il salto sarebbe stato ragguardevole...
tecnicamente il 50% minimo di rendimento in piu' rispetto a turing e' confermato quasi sicuramente, come e' confermato che la 2080ti diventera' di colpo una scheda mid level in un batter d'occhio all'uscita delle nuove.

Ho fatto alcune stime, puramente teoriche di scaling.
Tra 3080 e 2080s con un clock di 1950mhz base, si arriverebbe a circa il 60%.
Alla 3080ti devi aggiungere un 25% max.
Ora da questa percentuale bisogna vedere sostanzialmente 2 cose:
1) la percentuale di boost (che potrebbe essere di 200mhz, come di 600, 35% max). Con tutte queste unità FP, dubito in un salto davvero marcato, salvo un'accuraot lavoro elettrico o di pipe.

2) così come sono impostate, si andrà incontro ad un IPC peggiore.
Ogni warp processa 32cc in 8 cicli, non in 4, ed ogni cuda scende da 1024 a 512 istruzioni, un rapporto praticamente simile a Pascal, salvo le INT32.

Quote:
Originariamente inviato da Ton90maz Guarda i messaggi
Comunque non mi entusiasmerebbe. Mi sembra fin troppo costruita in ottica ray tracing, che sarà sì il futuro ma rischia di saltare fuori un'altra generazione complessivamente insoddisfacente. Il clock, salvo stravolgimenti, più di tanto non può fare.
Ottica RT ed ottica calcolo puro, perdendo IPC puro.
Tutti quegli shader potrebbero essere limitanti a certe risoluzioni in modlaità raster, considerando che un chip da 6144cc oltre a perdere istruzioni e raddoppiare i cicli, si ritroverebbe la stessa geometria e stesse rbe.

Bisogna vedere quanto risuciranno a tirare su il clock. In linea di massima si può salire molto, sopratutto facendo un lavoro elettrico ottimale.
Tuttavia con tutti questi shader, si cercherà probabilmente un ottimo compromesso a 0,95v/1v.

Quote:
Originariamente inviato da Acme Guarda i messaggi
Una cosa sembra certa, anche a questo giro non vedremo il chip full per il mercato gaming.
IMHO
Quasi sicuramente no.
__________________
Ryzen 5800x3D - Msi B450TH - Corsair 32gb 3600 lpx - RTX 3080 FE - samsung 860 pro 1tb - 4tb storage - Acer g-sync xb270hu - MSI MPG A850G atx3.0
mikael84 è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 15:42   #45730
mikael84
Moderatore
 
L'Avatar di mikael84
 
Iscritto dal: Mar 2007
Messaggi: 22224
Quote:
Originariamente inviato da Nurabsa Guarda i messaggi



Eresia

logicamente piu passano gli anni e piu un chip medio si avvicina al top di ieri 16. anche l altro ieri i mitici 28
Ma la proporzione non è mai stata quella che dici tu.
Non c'è una regola fissa certi chip tengono la prova del tempo meglio di altri.

*Ti ricordo che g84 80nm maggio 2007 (8600mgt) gestisce h264 (per gli amici streaming in fhd senza peso sulla cpu/gpu) in hw quando ancora si prendeva l'acqua col secchio dal pozzo.
La stessa feature è di gran moda oggi netflix,prime video etc, ma nel lontano 2007 nel portatile dal quale ti scrivo non sapevo che farmene insieme all hdmi 1.1 on board
A volte le case (raro) anticipano i tempi con tecnologie inutili sul momento.*

I fattori che incidono sono molteplici : cpu,mb,ram,pannello usato.

Poi cambia tantissimo da come è programmato un titolo motore geometrico etc, tutte cose che sai benissimo e che spieghi bene quando ne hai voglia.

L altro giorno non capivo perche un gioco richiedesse l oc dell cpu e un altro simile no (per avere i 60).
Cercando leggo che uno usa physx e l altro havok. gia solo questo fa il bello e il cattivo tempo nelle stesso sistema.

Potrei aggiungere la corretta configurazione del pannello.
Fondamentale vieni prima dei frame erogati dalla vga.

Uso una tv che ha tutta una serie di parametri da configurare prima di andar bene fluida sincronizzata al meglio.
Pena potrei fare uno sli di 2080ti e avere sempre scatti a fifa tra motion scene e gameplay per dire.
Molto piu rognose dei monitor da questo punto di vista.

Concludendo quando una persona colta (quando vuole) come te mi semplifica ragionamenti molto complessi e impossibili da generalizzare (dovremmo avere tutto li stesso hw) mi domando : cosa ci guadagna a far cambiare vga a poveri cristi che leggendoti pensano che la performace dipenda solo dalla scheda video?
Eresia, quello è


Ormai la 980ti è passata, seppur clockata.
Su vulkan/dx12 la 1660 super la stacca pure.
__________________
Ryzen 5800x3D - Msi B450TH - Corsair 32gb 3600 lpx - RTX 3080 FE - samsung 860 pro 1tb - 4tb storage - Acer g-sync xb270hu - MSI MPG A850G atx3.0
mikael84 è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 18:46   #45731
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21306
Quote:
Originariamente inviato da mikael84 Guarda i messaggi
Eresia, quello è


Ormai la 980ti è passata, seppur clockata.
Su vulkan/dx12 la 1660 super la stacca pure.


si conferma l'affarista del secolo chi si è preso una 1080ti usata a 400
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 23-02-2020, 20:29   #45732
FreeMan
Senior Member
 
L'Avatar di FreeMan
 
Iscritto dal: Jul 1999
Città: Black Mesa
Messaggi: 72400
Ricordo che il thread è "ASPETTANDO" e non "RICORDANDO" !!!

>bYeZ<
__________________
REGOLAMENTO & update1/update2 | IO C'ERO | Realme X3 SZ 12/256 - History | GTi is BACK

"Non sorridete.......gli spari sopra.....sono per VOI!"
FreeMan è offline   Rispondi citando il messaggio o parte di esso
Old 24-02-2020, 01:35   #45733
thunderforce83
Bannato
 
Iscritto dal: Oct 2016
Messaggi: 1164
Quote:
Originariamente inviato da Kostanz77 Guarda i messaggi
Addirittura già cambiata in previsione Ampere?......mi sembra un po’ troppo presto


Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
4/5mesi non sono tanti,in piu' i titoli mattone me li sono giocati tutti e quindi non mi serviva piu' tanta potenza e quindi ho preferito andare di muletto nell attesa di ampere
Quote:
Originariamente inviato da mikael84 Guarda i messaggi
Ho fatto alcune stime, puramente teoriche di scaling.
Tra 3080 e 2080s con un clock di 1950mhz base, si arriverebbe a circa il 60%.
Alla 3080ti devi aggiungere un 25% max.
Ora da questa percentuale bisogna vedere sostanzialmente 2 cose:
1) la percentuale di boost (che potrebbe essere di 200mhz, come di 600, 35% max). Con tutte queste unità FP, dubito in un salto davvero marcato, salvo un'accuraot lavoro elettrico o di pipe.

2) così come sono impostate, si andrà incontro ad un IPC peggiore.
Ogni warp processa 32cc in 8 cicli, non in 4, ed ogni cuda scende da 1024 a 512 istruzioni, un rapporto praticamente simile a Pascal, salvo le INT32.



Ottica RT ed ottica calcolo puro, perdendo IPC puro.
Tutti quegli shader potrebbero essere limitanti a certe risoluzioni in modlaità raster, considerando che un chip da 6144cc oltre a perdere istruzioni e raddoppiare i cicli, si ritroverebbe la stessa geometria e stesse rbe.

Bisogna vedere quanto risuciranno a tirare su il clock. In linea di massima si può salire molto, sopratutto facendo un lavoro elettrico ottimale.
Tuttavia con tutti questi shader, si cercherà probabilmente un ottimo compromesso a 0,95v/1v.



Quasi sicuramente no.
Su Twitter come @CorgiKitty , il leaker senza nome ha twittato su GA100, GA103 e GA104, che sono presumibilmente GPU Ampere e RTX serie 3000. Apparentemente, GA100 è il fiore all'occhiello dei tre e presenterà un dado da 826 mm². @CorgiKitty ha anche spiegato come NVIDIA organizzerà anche il dado. L'account richiede anche quanto segue:

INT32 L'unità rimane invariata.
Raddoppia l'unità FP32 per la proporzione di shader.
Le prestazioni del nuovo Tensor Core sono raddoppiate.
Cache dati L1 migliorata per funzioni più complete.
Vera architettura per RTX GAMING con il nuovissimo design RT CORE ADVANCED.
Apparentemente, GA103 presenterà 60 SM. Ciò può produrre 3.840 o 7.680 core CUDA a seconda del rapporto di core per SM. Wccftech osserva inoltre che GeForce RTX 2080 Ti ha 64 core per SM, il che significa 4.608 core CUDA distribuiti su 72 SM. @CorgiKitty afferma che GA103 avrà anche 10 GB o 20 GB di VRAM, il che sarebbe enorme per gli standard odierni.

Infine, GA104 avrà presumibilmente 48 SM. Secondo le informazioni su GA103, GA104 avrà 3.072 o 6.144 core CUDA. Inoltre, la GPU avrà 8 GB o 16 GB di VRAM che funzioneranno su un bus a 256 bit.

Nel complesso, quanto sopra dovrebbe offrire fino al doppio delle prestazioni offerte dall'attuale serie RTX 20. @CorgiKitty afferma che anche un GA102 è in fase di sviluppo. Tuttavia, non offrono dettagli su questa GPU a parte il fatto che NVIDIA sta valutando le prestazioni di Navi 21 prima di apportare modifiche a GA102.

Ancora una volta, quanto sopra potrebbe non arrivare a nulla. Qualcuno dei precedenti ti tenterebbe ad acquistare una GPU serie RTX 3000, però?


se nvidia caccia la 3080ti a sto giro veramente avremo potenza da vendere prima della fine dell'anno,vedremo...

Ultima modifica di thunderforce83 : 24-02-2020 alle 01:57.
thunderforce83 è offline   Rispondi citando il messaggio o parte di esso
Old 24-02-2020, 09:11   #45734
devil_mcry
Senior Member
 
L'Avatar di devil_mcry
 
Iscritto dal: Sep 2008
Messaggi: 36423
Ma secondo voi una ipotetica 3060 come si piazzerebbe rispetto alla serie 2000?

Sto pensando al piano C nel caso la 3080 e la 3070 costino più di 1k XD
__________________
Ryzen 5950x PBO2 - Asus B550m TUF- G.Skill 32GB 3200Mhz - ZOTAC 3080 12GB OC - 990 PRO 1TB - 970 EVO 1TB - 860 EVO 250GB
Asus ROG Ally Z1 Extreme
devil_mcry è offline   Rispondi citando il messaggio o parte di esso
Old 24-02-2020, 09:53   #45735
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21306
Quote:
Originariamente inviato da devil_mcry Guarda i messaggi
Ma secondo voi una ipotetica 3060 come si piazzerebbe rispetto alla serie 2000?

Sto pensando al piano C nel caso la 3080 e la 3070 costino più di 1k XD
suppongo andrà minimo come una 2070S/2080
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 24-02-2020, 10:25   #45736
ninja750
Senior Member
 
L'Avatar di ninja750
 
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 19807
Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
suppongo andrà minimo come una 2070S/2080
costando come una 2070s
ninja750 è offline   Rispondi citando il messaggio o parte di esso
Old 24-02-2020, 11:50   #45737
DuttZ
Senior Member
 
L'Avatar di DuttZ
 
Iscritto dal: Jan 2008
Messaggi: 1217
Notando i leak delle ultime ore, per la prossima top di gamma Nvidia, il prezzo sarà al m^2? 😅
__________________
CPU 3570k @4.4 (all core no turbo) - RAM Kingston Beast series 16GB (2x8) 2.133 CL11 - M/B Asrock Z77 Extreme 4 - GPU RX Vega 56 Pulse @ GPU 1.622uv 1.050V / HBM 950mhz - SO 1xSSD Samsung 840 Pro 240GB - 1x SSD WD blue 1TB x i giochi - Storage 1xHDD 2TB WD Green e 1xHDD 2TB Toshiba - Scheda Audio X-Fi Fatality Champion series with bay - Case Cosmos II - PSU Corsair CS750M
DuttZ è offline   Rispondi citando il messaggio o parte di esso
Old 24-02-2020, 12:45   #45738
nessuno29
Senior Member
 
L'Avatar di nessuno29
 
Iscritto dal: Aug 2010
Città: lamezia terme
Messaggi: 2977
Quote:
Originariamente inviato da devil_mcry Guarda i messaggi
Ma secondo voi una ipotetica 3060 come si piazzerebbe rispetto alla serie 2000?

Sto pensando al piano C nel caso la 3080 e la 3070 costino più di 1k XD
Andrà come la 2080 costando come la 2070 che costava come la 1080 andando come la 1080
__________________
i5 13600k|Asus h610m wifi|Viper 32gb 5600mhz|rtx 3060ti|evga 750w g6|Lianli Dan matx|Asus Vg27a 2k@144hz
nessuno29 è offline   Rispondi citando il messaggio o parte di esso
Old 24-02-2020, 14:24   #45739
illidan2000
Senior Member
 
L'Avatar di illidan2000
 
Iscritto dal: Dec 2004
Città: Roma
Messaggi: 27167
Quote:
Originariamente inviato da DuttZ Guarda i messaggi
Notando i leak delle ultime ore, per la prossima top di gamma Nvidia, il prezzo sarà al m^2? 😅
fonte?
__________________
MetallicGear Qube,Asus Strix z690 d4,i7 13700k+Arctic 360rgb,2x32gb Patriot Viper Rgb 3600mhz,ssd:980pro 2TB-970evo 1tb-970evo 2tb-sm941 2tb-kingston 3dUltra 2tb,4090 phantom+Samsung 34 g8 OLED,Corsair 1000w,Xonar U7mk2 USB,sua 1500i,Asus Scope TKL-g13-g35-g903
vecchi bench 780/970
illidan2000 è offline   Rispondi citando il messaggio o parte di esso
Old 24-02-2020, 14:39   #45740
ninja750
Senior Member
 
L'Avatar di ninja750
 
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 19807
Quote:
Originariamente inviato da illidan2000 Guarda i messaggi
fonte?
fonte il prezzo è direttamente proporzionale al die size e sei in monopolio in 2 fasce su 5
ninja750 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


ASUS Zenbook A14, dove autonomia e design si fondono ASUS Zenbook A14, dove autonomia e design si fon...
Recensione HUAWEI Mate X6: il foldable più interessante, ma con qualche limite Recensione HUAWEI Mate X6: il foldable più...
Sapphire NITRO+ Radeon RX 9070 XT recensione: una GPU AMD con connettore 12V-2x6 Sapphire NITRO+ Radeon RX 9070 XT recensione: un...
Recensione Onyx Boox Palma 2: solo evoluzione ma rimane unico Recensione Onyx Boox Palma 2: solo evoluzione ma...
MWC 2025: dalle reti alle applicazioni, il 5G diventa l’infrastruttura per il futuro dell’IA MWC 2025: dalle reti alle applicazioni, il 5G di...
La nuova immagine del telescopio spazial...
realme 14 Pro+, le due caratteristiche c...
OneNote, fine supporto imminente per la ...
Appian aggiorna la sua piattaforma alla ...
Anche l'Africa entra nella corsa dell'in...
L'Unione Europea interviene sulle microt...
D-Wave risolve un problema con il suo co...
Indiana Jones e l'Antico Cerchio sbarca ...
Efficienza per gli edifici comunali: 232...
I giocatori PC superano quelli console, ...
Biancaneve domina il botteghino in mezzo...
Raspberry Pi presenta rpi-image-gen: imm...
Gemini, in roll-out Astra: analisi in te...
Fotocamere sui prossimi Apple Watch? L'u...
Guerra al web scraping: Cloudflare intro...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 00:01.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www1v