View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
devil_mcry
15-07-2020, 13:25
Nvidia ti costringe a smanettare un tantino la brillantezza digitale, o il contrasto dal driver a seconda del pannello, sopratutto TN e VA di basso livello.
Su AH-IPS, ho fatto varie prove, e non cambiava nulla.
Molti queste cose non le conoscono, sopratutto su certi pannelli, e si ritrovano di default un piattume generale.
Ci sono schede però come le Asus, che spesso hanno un contrasto più elevato di base delle AMD.
Si ma diciamo anche che un pannello TN ma anche VA o IPS entry level, magari 6+frc aiuta poco di base. Se i pannelli sono buoni non serve toccare nulla se non la calibratura del pannello stesso di base
Io sui portatili, dove ho praticamente sempre avuto gpu amd, ho comunque dovuto smanettare perché qui TN merdosi erano slavati da far schifo
fraussantin
15-07-2020, 13:29
Nvidia ti costringe a smanettare un tantino la brillantezza digitale, o il contrasto dal driver a seconda del pannello, sopratutto TN e VA di basso livello.
Su AH-IPS, ho fatto varie prove, e non cambiava nulla.
Molti queste cose non le conoscono, sopratutto su certi pannelli, e si ritrovano di default un piattume generale.
Ci sono schede però come le Asus, che spesso hanno un contrasto più elevato di base delle AMD.Mmm ê strano peró che lo faccia solo su alcuni monitor. A meno che per certi monitor Windows non installi dei driver display non generici ma con settaggi colore.
Cmq per mia esperienza meno cose tocchi ( soprattutto brillantezza e contrasto ) e meno informazioni colore perdi , e di conseguenza meno banding hai.
Io purtroppo ho dovuto calibrare il pannello perché i led di retroilluminazione erano color piscio radioattivo e un pochino di Banding sulle sfumature chiare c'é.
mikael84
15-07-2020, 14:50
Tanto poi farà il refresh coi 7 o 5nm di TSMC :)
Io se posso salterò questa gen.
Si spera 5nm con hopper MCM.:)
grazie Mike chiarissimo come sempre :)
:mano:
O lumasharpen + vibrance da Reshade.
Insieme all'SMAA sono il mio terzetto classico usato millemila volte :D
Senza reshade neppure gioco.:D
Si ma diciamo anche che un pannello TN ma anche VA o IPS entry level, magari 6+frc aiuta poco di base. Se i pannelli sono buoni non serve toccare nulla se non la calibratura del pannello stesso di base
Io sui portatili, dove ho praticamente sempre avuto gpu amd, ho comunque dovuto smanettare perché qui TN merdosi erano slavati da far schifo
No TN e MVA ad 8bit +frc. Dipende anche dalla GPU, le Asus che ho provato, mi ricordo sopratutto una 780ti, peggio di AMD.
Su AH-IPS, mai notato differenze, anzi, a momenti trovavo più contrastate le nvidia.
Su MVA, devo dare + 60% BL e 5% di contrasto, altrimenti non è il massimo su desk, in game tra reshade è pure troppo.
Sui vecchissimi TN, invece AMD la trovavo nettamente meglio.
Mmm ê strano peró che lo faccia solo su alcuni monitor. A meno che per certi monitor Windows non installi dei driver display non generici ma con settaggi colore.
Cmq per mia esperienza meno cose tocchi ( soprattutto brillantezza e contrasto ) e meno informazioni colore perdi , e di conseguenza meno banding hai.
Io purtroppo ho dovuto calibrare il pannello perché i led di retroilluminazione erano color piscio radioattivo e un pochino di Banding sulle sfumature chiare c'é.
E' soggettivo, su AH-IPS, vedevo gente con +10% di BL e 60 di contrasto, a me solo + 5 i BL, faceva lacrimare gli occhi.
Su MVA, se non do almeno 10% di BL, non mi soddisfa. Però qua, non ho provato AMD, quindi non ti so dire.
La qualità del pannello è quella che è ovviamente:p
Dipende anche dalla GPU, alcune Asus sono molto sature.
devil_mcry
15-07-2020, 15:59
Io boh da quando ho preso gli IPS mi sono sempre trovato bene
Il primo era IPS ma non so esattamente quale mentre il secondo era un AH-IPS
Ora uso direttamente una TV da 55 VA 10bit HDR, non so se è VA o MVA ma dovrebbe solo cambiare l'angolo di visione.
Mi trovo benissimo anche con questa, meglio che con l'ultimo AH-IPS
Però sui TN ... :nono:
Come IPS l'unico che non mi soddisfa e quello del mio ipad scrauso del 2018, è un IPS ma ha pochissimo contrasto sia rispetto agli altri IPS che ovviamente rispetto al VA
Comunque per natura i VA sono un filo meno brillanti degli AH-IPS, ma hanno un contrasto 4-5 volte superiore...
Senza la base ci puoi fare poco.
Personalmente non baratterei mai un ips con un buon va...Molto meglio il va, contrasto e scuri molto meglio.
fraussantin
15-07-2020, 16:27
Personalmente non baratterei mai un ips con un buon va...Molto meglio il va, contrasto e scuri molto meglio.Dipende cosa ci fai.
Per gaming e film si i VA buoni sono meglio .
Per un uso a 360 gradi meglio un ips
Ho avuto tra le mani un Samsung va freesync e nei game é bellissimo uso desktop non si può guardare.
devil_mcry
15-07-2020, 16:44
Dipende cosa ci fai.
Per gaming e film si i VA buoni sono meglio .
Per un uso a 360 gradi meglio un ips
Ho avuto tra le mani un Samsung va freesync e nei game é bellissimo uso desktop non si può guardare.
il problema dei VA sono i pannelli economici che si piazzano tra i TN e i IPS 6+frc
Se si parla di pannelli buoni, pure io voto VA, dopo che lo si prova non si torna indietro
mattxx88
15-07-2020, 16:45
Personalmente non baratterei mai un ips con un buon va...Molto meglio il va, contrasto e scuri molto meglio.
dipende dall'ips, se vedi i pannelli che montano gli asus pg27 o acer x27 prendi paura
devil_mcry
15-07-2020, 16:48
dipende dall'ips, se vedi i pannelli che montano gli asus pg27 o acer x27 prendi paura
guardando... sono i soliti 1000:1
per dire il mio VA ha 5500:1 di contrasto misurato
fraussantin
15-07-2020, 17:01
guardando... sono i soliti 1000:1
per dire il mio VA ha 5500:1 di contrasto misuratoGli ips vanno usati a luce accesa . Sono monitor pensati per il lavoro , poi certi veloci sono ottimi anche per gaming.
Come ho detto per un uso a 360 gradi meglio un ottimo ips, per chi gioca e basta meglio un va. Se poi lo volete curvo non sto neanche a dirlo che gli ips meglio evitarli perché i chiazzoni gialli diventano abnormi.
Per chi gioca competitivo c'é poco da fare serve un TN , sono migliorati tanto e hanno una fluidità ottima.
PS una cosa che mi manca nel monitor é il sensore di luminositá tipo i telefoni .. cacchio se sarebbe utile
mattxx88
15-07-2020, 17:10
guardando... sono i soliti 1000:1
per dire il mio VA ha 5500:1 di contrasto misurato
https://www.anandtech.com/show/13060/asus-pg27uq-gsync-hdr-review/6
guarda meglio :D
devil_mcry
15-07-2020, 17:14
https://www.anandtech.com/show/13060/asus-pg27uq-gsync-hdr-review/6
guarda meglio :D
eh... è sempre 1000:1
è il fald che alza il contrasto ma il pannello di per se va come un ips è proprio una caratteristica tecnica di quei pannelli
mikael84
15-07-2020, 17:19
Raga stiamo andando troppo OT.;)
Il contrasto è overrated. Serve solo per guardare film al buio. Io da quando ho un IPS sul portatile (Acer) ai VA non ci torno più.
scusate l'OT.
Per tornare IT, devo dire che anche io da pannello nvidia devo intervenire per migliorare i colori, e ho un VA di fascia media vecchiotto. Non ricordo neppure com'erano i colori con le AMD... :D
Thunder-74
16-07-2020, 10:23
Storia vera quella del connettore da 12 pin e non è la stessa cosa di due da 6...
LINK (https://www.techpowerup.com/269957/the-curious-case-of-the-12-pin-power-connector-its-real-and-coming-with-nvidia-ampere-gpus)
TechPowerUp ha alcune nuove informazioni al riguardo da una fonte industriale ben posizionata. Il connettore è reale e verrà introdotto con le schede grafiche "Ampere" di prossima generazione di NVIDIA. Il connettore sembra essere il figlio-cervello di NVIDIA e non quello di qualsiasi altro IP o gruppo commerciale, come PCI-SIG, Molex o Intel. Il connettore è stato progettato in risposta a due realtà di mercato: le schede grafiche di fascia alta necessitano inevitabilmente di due connettori di alimentazione; e sarebbe più ordinato per i consumatori avere un solo cavo piuttosto che dover lottare con due; e che le schede grafiche di fascia inferiore (<225 W) possono accontentarsi di un connettore a 8 o 6 pin.
Il nuovo connettore NVIDIA a 12 pin ha sei pin da 12 V e sei di terra. I suoi progettisti specificano contatti di qualità superiore sia sull'estremità maschio che su quella femminile, in grado di gestire una corrente superiore rispetto ai pin dei connettori di alimentazione PCIe a 8 pin / 6 pin. A seconda del fornitore dell'alimentatore, il connettore a 12 pin può persino dividersi nel mezzo in due a 6 pin e potrebbe essere commercializzato come "6 + 6 pin". Il punto di contatto tra le due metà a 6 pin viene mantenuto livellato in modo da allinearsi perfettamente.
Per quanto riguarda l'erogazione della potenza, abbiamo appreso che i progettisti specificheranno anche la sagoma del cavo e, con la giusta combinazione di sezione e pin del cavo, il connettore dovrebbe essere in grado di fornire 600 Watt di potenza (quindi non è 2 * 75 W = 150 W) e non un ridimensionamento di 6 pin. Igor's Lab ha pubblicato ieri un rapporto di indagine con alcuni numeri sul calibro dei cavi che aiutano a spiegare come il connettore potrebbe fornire molta più potenza di una combinazione di due comuni connettori PCIe a 6 pin.
Guardando il keying, possiamo vedere che non sarà possibile collegare due classici sei pin ad esso. Ad esempio il pin 1 è quadrato sul PCIe a 6 pin, ma sul NVIDIA a 12 pin ha un angolo angolato. Inoltre, non sarà possibile utilizzare combinazioni strane come 8 pin + EPS 4 pin o simili: NVIDIA ha fatto in modo che le persone non fossero in grado di collegare i loro cavi nel modo sbagliato.
In tema di proliferazione del connettore, oltre ai produttori di PSU che lanciano nuove generazioni di prodotti con connettori a 12 pin, i produttori più importanti dovrebbero rilasciare cavi modulari aftermarket che possono essere collegati alle loro PSU esistenti. I produttori di schede grafiche includeranno adattatori di ketchup e senape che convertono 2x 8 pin in 1x 12 pin; mentre la maggior parte dei produttori di case / alimentatori rilascerà eleganti adattatori aftermarket con una migliore estetica.
https://www.techpowerup.com/img/xysaJrZzfgv5OxWK.jpg
oZonoRobotics
16-07-2020, 10:35
domandona, ricordo di aver sentito che una 2080ti della gigabyte ha il bios sbloccato a 375w, che connettore ha?
ma questo vorrebbe dire che consumeranno tanto di più?
Giovamas
16-07-2020, 10:37
[B]Storia vera quella del connettore da 12 pin e non è la stessa cosa di due da 6...
quindi pare che se è vero verranno (giustamente) forniti in bundle e comunque facilmente reperibili
Thunder-74
16-07-2020, 10:43
domandona, ricordo di aver sentito che una 2080ti della gigabyte ha il bios sbloccato a 375w, che connettore ha?
ma questo vorrebbe dire che consumeranno tanto di più?
C'è la Lightining della MSI che ha 3 connettori da 8 pin. Non è che prima non si poteva erogare la stessa quantità di corrente, solamente è che nVidia parte dal presupposto di connettore standard "necessario". Si dice l'erogazione in questo modo sia migliore, ma non possiamo comunque escludere che alcune custom non mantengano l'approccio fin ora adottato.
quindi pare che se è vero verranno (giustamente) forniti in bundle e comunque facilmente reperibili
Si, ma io gli accrocchi in bundle non li userei...
oZonoRobotics
16-07-2020, 10:48
C'è la Lightining della MSI che ha 3 connettori da 8 pin. Non è che prima non si poteva erogare la stessa quantità di corrente, solamente è che nVidia parte dal presupposto di connettore standard "necessario". Si dice l'erogazione in questo modo sia migliore, ma non possiamo comunque escludere che alcune custom non mantengano l'approccio fin ora adottato.
Si, ma io gli accrocchi in bundle non li userei...
ah ok non avevo idea dei 3 connettori da 8... grazie :D
Thunder-74
16-07-2020, 11:14
ah ok non avevo idea dei 3 connettori da 8... grazie :D
diciamo poco convenzionale.. :D
https://i.ytimg.com/vi/3D2p6ucC9V0/maxresdefault.jpg
C'è la Lightining della MSI che ha 3 connettori da 8 pin. Non è che prima non si poteva erogare la stessa quantità di corrente, solamente è che nVidia parte dal presupposto di connettore standard "necessario". Si dice l'erogazione in questo modo sia migliore, ma non possiamo comunque escludere che alcune custom non mantengano l'approccio fin ora adottato.
Si, ma io gli accrocchi in bundle non li userei...
Vabbè alla fine anche con 2 connettori da 8pin hai un range di 300-350w, più altri 75w del PCI-e quindi non hai problemi per alimentare un chippone.
Penso che l'introduzione del nuovo connettore sia anche per una questione di design, un pò come avere un singolo connettore a 8pin anzichè 2 da 6pin...
Comunque concordo che esteticamente gli adattatori in bundle sono un pugno in un occhio, ma tanto ci sono le classiche prolunghe sleeve quindi non è un vero problema e non credo che con la prossima generazione di alimentatori mancheranno soluzioni con un cavo 12pin dedicato.
Grazie alla cover in carbonio prende 3 fps in più a 4k e migliora l'inserimento in curva in fondo al rettilineo del Mugello... :sofico:
Comunque sto valutando se prendere una 7970 lightning da aggiungere alla collezione vga :stordita: quella il carbonio tamarro non ce l'ha almeno :asd:
Ma poi ste pippe sui connettori nuovi....è almeno confermata?
Thunder-74
16-07-2020, 11:23
Vabbè alla fine anche con 2 connettori da 8pin hai un range di 300-350w, più altri 75w del PCI-e quindi non hai problemi per alimentare un chippone.
Penso che l'introduzione del nuovo connettore sia anche per una questione di design, un pò come avere un singolo connettore a 8pin anzichè 2 da 6pin...
Comunque concordo che esteticamente gli adattatori in bundle sono un pugno in un occhio, ma tanto ci sono le classiche prolunghe sleeve quindi non è un vero problema e non credo che con la prossima generazione di alimentatori mancheranno soluzioni con un cavo 12pin dedicato.
no, solamente che non potrà usare due cavi da 6 pin per differente forma dei singoli pin. La speranza è che le case venderanno il singolo cavo sleevato senza lucrare per vendere l'intero set di cavi. Confido in EVGA..
Grazie alla cover in carbonio prende 3 fps in più a 4k e migliora l'inserimento in curva in fondo al rettilineo del Mugello... :sofico:
Comunque sto valutando se prendere una 7970 lightning da aggiungere alla collezione vga :stordita: quella il carbonio tamarro non ce l'ha almeno :asd:
Ma poi ste pippe sui connettori nuovi....è almeno confermata?
Il carbonio è il carbonio :sofico:
sembra di si che sia confermata come voce... se così sarà, credo che il cambio sia necessario, perchè comunque, anche se marginale, rappresenta un elemento ostativo per gli utenti. Non posso pensare che sia solo un fatto estetico per avere un solo cavo al posto di due.
no, solamente che non potrà usare due cavi da 6 pin per differente forma dei singoli pin. La speranza è che le case venderanno il singolo cavo sleevato senza lucrare per vendere l'intero set di cavi. Confido in EVGA..
Il carbonio è il carbonio :sofico:
sembra di si che sia confermata come voce.
E' da vedere, concettualmente tutti i vecchi alimentatori devono sfruttare le uscite pre-estitenti a 8pin, quindi il cavo è di fatto un adattatore e non ho mai visto adattatori nei set di cavi sleeve.
Quindi escluderei lo mettano nei set, potrebbero venderlo a parte o inviarlo a chi ha acquistato alimentatori di fascia alta, ma di sicuro soluzioni di terzi non ne mancheranno...
fraussantin
16-07-2020, 11:43
Secondo me l'han fatto perché vogliono mettere i cavi in fondo e 3 connettori da 8 non ci stavano
Thunder-74
16-07-2020, 12:02
E' da vedere, concettualmente tutti i vecchi alimentatori devono sfruttare le uscite pre-estitenti a 8pin, quindi il cavo è di fatto un adattatore e non ho mai visto adattatori nei set di cavi sleeve.
Quindi escluderei lo mettano nei set, potrebbero venderlo a parte o inviarlo a chi ha acquistato alimentatori di fascia alta, ma di sicuro soluzioni di terzi non ne mancheranno...
questo poco ma sicuro. Certo che se lo spedissero a chi ha un ALI di un certo tipo e aveva pure comprato il set di cavi sleevati... :fagiano:
oZonoRobotics
16-07-2020, 12:02
diciamo poco convenzionale.. :D
direi :P hahahahh io ho un vecchio alimentatore ocz... con la fortuna che ho io avrò sicuro qualche problema :S
mikael84
16-07-2020, 12:29
Storia vera quella del connettore da 12 pin e non è la stessa cosa di due da 6...
LINK (https://www.techpowerup.com/269957/the-curious-case-of-the-12-pin-power-connector-its-real-and-coming-with-nvidia-ampere-gpus)
Se ci pensi è una genialata per TDP molto esosi.
Vabbè alla fine anche con 2 connettori da 8pin hai un range di 300-350w, più altri 75w del PCI-e quindi non hai problemi per alimentare un chippone.
Penso che l'introduzione del nuovo connettore sia anche per una questione di design, un pò come avere un singolo connettore a 8pin anzichè 2 da 6pin...
Con 2 connettori da 8 più pci ex vai a 375w, troppo poco per un chip capace di 350w.
Dovresti adottare o un 2x8 + 1x6 o addirittura un 3x8, non semplice a seconda del PCB. Senza considerare un'oculata ripartizione delle fasi, considerando che il 6 pin, viene praticamente sviato.
Con questo connettore, hai solo 2x6pin in termini di spazio ma non di prestazioni.
I rapporti di targa lo danno sino a 9,5A con range tra 6 ed 8 A.
Immaginando una sua declassazione, come gli altri cavi a 6 ampere, ti porterebbe ad un teorico di 432watt su un'unico cavetto.:)
amon.akira
16-07-2020, 13:05
Se ci pensi è una genialata per TDP molto esosi.
Con 2 connettori da 8 più pci ex vai a 375w, troppo poco per un chip capace di 350w.
Dovresti adottare o un 2x8 + 1x6 o addirittura un 3x8, non semplice a seconda del PCB. Senza considerare un'oculata ripartizione delle fasi, considerando che il 6 pin, viene praticamente sviato.
Con questo connettore, hai solo 2x6pin in termini di spazio ma non di prestazioni.
I rapporti di targa lo danno sino a 9,5A con range tra 6 ed 8 A.
Immaginando una sua declassazione, come gli altri cavi a 6 ampere, ti porterebbe ad un teorico di 432watt su un'unico cavetto.:)
c'è da dire che oltre 350watt ad aria è no sense, la mia arriva a 330w eppure fatica moltissimo in estate.
infatti questo potrebbe portarmi a scegliere la 3080, non so vedremo.
fraussantin
16-07-2020, 13:26
c'è da dire che oltre 350watt ad aria è no sense, la mia arriva a 330w eppure fatica moltissimo in estate.
infatti questo potrebbe portarmi a scegliere la 3080, non so vedremo.
bisogna vedere quanto è efficente quel coso biventola ad hamburger
amon.akira
16-07-2020, 13:34
bisogna vedere quanto è efficente quel coso biventola ad hamburger
vedremo, ma di solito le custom specialmente le top gamma, hanno sempre fatto meglio delle varie founders, inoltre superati i 2200giri le ventole iniziano a darmi fastidio, quindi in quel caso piuttosto undervolterei perdendo clock.
devil_mcry
16-07-2020, 13:36
Ma davvero anche la 3080 avrà richieste energetiche di quel tipo?
Io ho solo un 600w 80 plus molto particolare, ora ho una gtx1080 ma penso che anche una da 250w sia nei range del mio PSU
Certamente non 350
fraussantin
16-07-2020, 13:51
Ma davvero anche la 3080 avrà richieste energetiche di quel tipo?
Io ho solo un 600w 80 plus molto particolare, ora ho una gtx1080 ma penso che anche una da 250w sia nei range del mio PSU
Certamente non 350Secondo me é la ti. La 3080 non penso che sfonderà i 300W
devil_mcry
16-07-2020, 13:56
Secondo me é la ti. La 3080 non penso che sfonderà i 300W
Si ma ... sono comunque troppi XD Il mio alimentatore dovrebbe essere questo
https://www.amazon.com/FSP-Supply-Platinum-Certified-FSP600-80UEPB/dp/B01AK9SMVO
E si capisce subito che cambiarlo non sarebbe una cosa banale, continuo a sperare in qualcosa massimo in 250w
Io sono più curioso di vedere cosa si inventeranno lato algoritmo di boost e gestione temp
Conoscendo nvidia faranno vedere il meno possibile all’utente ergo non avranno una tjunction stile amd ma qualcosa si dovranno inventare per tenere il tutto a tiro visto che i nanometri iniziano ad essere pochi ma non così estremi come immagino saranno i 7nm+ rossi
fraussantin
16-07-2020, 14:04
Si ma ... sono comunque troppi XD Il mio alimentatore dovrebbe essere questo
https://www.amazon.com/FSP-Supply-Platinum-Certified-FSP600-80UEPB/dp/B01AK9SMVO
E si capisce subito che cambiarlo non sarebbe una cosa banale, continuo a sperare in qualcosa massimo in 250wÉ un Platinum , a meno che tu non abbia una 9900k overclokkato non penso che ci sarebbero troppi problemi.
Alle brutte prendi un modello basico che sicuramente consumerà meno.
Immagino che tu abbia un PC preassemblato piccolino, per avere quell'alimentatore. In questo caso forse preoccupa di piú il calore dei watt.
Cmq sono tutti leak . Vediamo cosa esce
Edit non ho capito come viene ripartita la potenza della 12v
Da 4 linee da 16A .. https://uploads.tapatalk-cdn.com/20200716/17caf7132726ac053c633b49970da3ed.jpg
devil_mcry
16-07-2020, 14:09
É un Platinum , a meno che tu non abbia una 9900k overclokkato non penso che ci sarebbero troppi problemi.
Alle brutte prendi un modello basico che sicuramente consumerà meno.
Immagino che tu abbia un PC preassemblato piccolino, per avere quell'alimentatore. In questo caso forse preoccupa di piú il calore dei watt.
Cmq sono tutti leak . Vediamo cosa esce
No il calore no perché è piccolo ma l'aria è tutta in estrazione
La vga ha il suo pannello di aspirazione davanti alle ventole un una uscita dietro mentre la cpu la manda in estrazione con un AIO, in teoria, dentro al case dovrebbe essere relativamente fresco
Vedremo, comunque no, ho un 3900x per fortuna
Thunder-74
16-07-2020, 14:31
Qualche tempo fa dissi che in molti si sarebbero trovati a rivedere il proprio Ali e a prendere in considerazione un eventuale dissipazione a liquido .... azzopé mi sto facendo paura da solo :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
16-07-2020, 14:32
c'è da dire che oltre 350watt ad aria è no sense, la mia arriva a 330w eppure fatica moltissimo in estate.
infatti questo potrebbe portarmi a scegliere la 3080, non so vedremo.
Si, teoricamente già ad aria superare i 300w è tosto, salvo avere super dissi.
Sino a Pascal nvidia ti bloccava di salire sopra i 300 nelle reference.
Quando si overvoltava a quei valori dovevi già liquidare, in quanto i VRM in over, salgono molto più del core.
Sulla 3080 ok, però è sempre lo stesso chip a sto giro, l'unico vantaggio è di stare più larghi e meno downvolt.
vedremo, ma di solito le custom specialmente le top gamma, hanno sempre fatto meglio delle varie founders, inoltre superati i 2200giri le ventole iniziano a darmi fastidio, quindi in quel caso piuttosto undervolterei perdendo clock.
Samsung ha pure lo svantaggio di partire a tensioni più alte. I 14lpp partivano da 1,1v
Ma davvero anche la 3080 avrà richieste energetiche di quel tipo?
Io ho solo un 600w 80 plus molto particolare, ora ho una gtx1080 ma penso che anche una da 250w sia nei range del mio PSU
Certamente non 350
350 è la richiesta della Titan con 24gb, le altre vanno a 320 di tdp, ed anche la 3080 liscia è basata su tale chip.
Io sono più curioso di vedere cosa si inventeranno lato algoritmo di boost e gestione temp
Conoscendo nvidia faranno vedere il meno possibile all’utente ergo non avranno una tjunction stile amd ma qualcosa si dovranno inventare per tenere il tutto a tiro visto che i nanometri iniziano ad essere pochi ma non così estremi come immagino saranno i 7nm+ rossi
Ci credi, che è proprio quello che mi manca delle AMD.
Sono dell'idea però, che per i meno esperti, è meglio non far vedere nulla.
C'è la Lightining della MSI che ha 3 connettori da 8 pin. Non è che prima non si poteva erogare la stessa quantità di corrente, solamente è che nVidia parte dal presupposto di connettore standard "necessario". Si dice l'erogazione in questo modo sia migliore, ma non possiamo comunque escludere che alcune custom non mantengano l'approccio fin ora adottato.
Se lo faranno è una cosa molto intelligente.
Le lightning e le kpe usavano il triple molex in configurazione 886. le galax hof 2x8 -bigmax-.
Col passare degli anni il peso dei tre cavi grava sul innesto pcb della vga.
In particolare sulle saldature dei molex femmina.
Per ovviare a questo ho fascettato i tre cavi e scaricato un po' di tensione.
Ma il vero problema è la suddivisione del carico di corrente.
Questo nuovo cavo richiederà quasi sicuramente una revisione dei psu rail negli anni a venire.
Esempio sul mio pc considerando l assorbimento della sola scheda video:
45x14 sono 630A sulla carta che i VRM potrebbero dover gestire -GPU-
60x3 180A per i 12 chip di GDDR5
Ma questi numeri li deve soddisfare l alimentatore prima ancora dei regolatori della vga.
Per come è costruito il mio ho un unico grosso rail con elettronica di potenza tale da soddisfare fino ad 1kw
-efficienza oltre il 90% certificata, entro il 80% di utilizzo- 80plus platinum
Questo canale oltre a alimentare mb,etc, tramite 3 cavi arriva anche alla vga.
La dc è sensibile alle distanze molto piu della ac. Specie quella a bassa tensione dei circuiti elettronici.
La resistenza elettrica dipende anche dal materiale, mmq e temperatura del conduttore.
-Esistono moderne centrali elettriche di conversione ac con ingresso dc a alta tensione oggi, ma non è il nostro caso-
Quindi per soddisfare le richieste della mia vga devo moltiplicare x3 il fattore distanza di un singolo cavo.
Sono obbligato nella configurazione, in bundle non ho cavi con uscita molex 1x3. Lato psu 1 innesto molex si sdoppia solo in 2x1 a 8pin.
Quello da 6pin invece devo pescarlo delle derivazioni sata. Una vera disfatta.
Domani con il nuovo 12pin a corrente elevata ci sara un enorme guadagno in termini di efficienza del conduttore a fronte di una probabile diversa architettura delle psu.
Forse anche sezione del conduttore. Penso 2 main rail dal prezzo salato.
È un esempio estremo ma abbassando le soglie si puo applicare a qualunque vga moderna -big chip-
Cambia poco o nulla per chi soddisfa le specifiche con un solo cavo ed un solo molex, zero per chi si alimenta dal pcie.
Se lo faranno è una cosa molto intelligente.
Le lightning e le kpe usavano il triple molex in configurazione 886. le galax hof 2x8 -bigmax-.
Col passare degli anni il peso dei tre cavi grava sul innesto pcb della vga.
In particolare sulle saldature dei molex femmina.
Per ovviare a questo ho fascettato i tre cavi e scaricato un po' di tensione.
Ma il vero problema è la suddivisione del carico di corrente.
Questo nuovo cavo richiederà quasi sicuramente una revisione dei psu rail negli anni a venire.
Esempio sul mio pc considerando l assorbimento della sola scheda video:
45x14 sono 630A sulla carta che i VRM potrebbero dover gestire -GPU-
60x3 180A per i 12 chip di GDDR5
Ma questi numeri li deve soddisfare l alimentatore prima ancora dei regolatori della vga.
Per come è costruito il mio ho un unico grosso rail con elettronica di potenza tale da soddisfare fino ad 1kw
-efficienza oltre il 90% certificata, entro il 80% di utilizzo- 80plus platinum
Questo canale oltre a alimentare mb,etc, tramite 3 cavi arriva anche alla vga.
La dc è sensibile alle distanze molto piu della ac. Specie quella a bassa tensione dei circuiti elettronici.
La resistenza elettrica dipende anche dal materiale, mmq e temperatura del conduttore.
-Esistono moderne centrali elettriche di conversione ac con ingresso dc a alta tensione oggi, ma non è il nostro caso-
Quindi per soddisfare le richieste della mia vga devo moltiplicare x3 il fattore distanza di un singolo cavo.
Sono obbligato nella configurazione, in bundle non ho cavi con uscita molex 1x3. Lato psu 1 innesto molex si sdoppia solo in 2x1 a 8pin.
Quello da 6pin invece devo pescarlo delle derivazioni sata. Una vera disfatta.
Domani con il nuovo 12pin a corrente elevata ci sara un enorme guadagno in termini di efficienza del conduttore a fronte di una probabile diversa architettura delle psu.
Forse anche sezione del conduttore. Penso 2 main rail dal prezzo salato.
È un esempio estremo ma abbassando le soglie si puo applicare a qualunque vga moderna -big chip-
Cambia poco o nulla per chi soddisfa le specifiche con un solo cavo ed un solo molex, zero per chi si alimenta dal pcie.
secondo me a livello di psu non cambierà nulla.
al massimo se questo 12pin diventerà uno standard fanno il cavo di spessore maggiore e fine.
prego che non torniamo come una volta con 4/5 rail della 12V sarebbe veramente un bel passo indietro.
mikael84
16-07-2020, 15:06
É un Platinum , a meno che tu non abbia una 9900k overclokkato non penso che ci sarebbero troppi problemi.
Alle brutte prendi un modello basico che sicuramente consumerà meno.
Immagino che tu abbia un PC preassemblato piccolino, per avere quell'alimentatore. In questo caso forse preoccupa di piú il calore dei watt.
Cmq sono tutti leak . Vediamo cosa esce
Edit non ho capito come viene ripartita la potenza della 12v
Da 4 linee da 16A ..
25 su due linee. Se è quello per una TI non va bene.
Qualche tempo fa dissi che in molti si sarebbero trovati a rivedere il proprio Ali e a prendere in considerazione un eventuale dissipazione a liquido .... azzopé mi sto facendo paura da solo :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Si, sopratutto chi ce l'ha vecchiotto, o troppo piccolo.
Certi picchi di carico, vanno ad incidere sopratutto sui condensatori, e se questo si rivela troppo elevato, le tensioni crollano.
Quando cominci ad avere picchi sotto gli 1,14v (che i software non possono vedere, ma solo gli oscilloscopi), i condensatori si incasinano, perchè certi picchi passano per il condensatore non ancora carico.
Risultato: PC spento.:)
Oppure, è la mobo che non riesce a stare dietro alle basse oscillazioni.
Risultato: PC spento :)
Gli alimentatori digitali, come i primi flex (tu ne sai qualcosa), avevano proprio il problema di partire da frequenze basse, con problema di oscillazioni severe, che incasinavano le mobo, con conseguente spegnimento (quando andava bene, non nel tuo caso).:)
Cmq, bisogna controllare certi parametri, perchè gestire quasi 500 watt, magari via bios, non sarà una passeggiata per gli ALI.
Giovamas
16-07-2020, 15:38
Si, ma io gli accrocchi in bundle non li userei...
vade retro :D comunque lato ali ho da poco preso un 1000w seasonic sostituendo il glorioso ax850. pensavo fosse overpower .. a parte le battute mi sembra un po tutto assurdo aspettiamo news certe
amon.akira
16-07-2020, 15:41
Sulla 3080 ok, però è sempre lo stesso chip a sto giro, l'unico vantaggio è di stare più larghi e meno downvolt.
infatti valuterò le prestazioni a 320w non quelle ipotetiche ottenibili senza freni, magari a 320 la 3080 la spingi un po e la Ti la freni un po magari si rosicchia un altro 5% sul +20% in raster...poi in rt è da vedere
fabietto27
16-07-2020, 15:43
25 su due linee. Se è quello per una TI non va bene.
Si, sopratutto chi ce l'ha vecchiotto, o troppo piccolo.
Certi picchi di carico, vanno ad incidere sopratutto sui condensatori, e se questo si rivela troppo elevato, le tensioni crollano.
Quando cominci ad avere picchi sotto gli 1,14v (che i software non possono vedere, ma solo gli oscilloscopi), i condensatori si incasinano, perchè certi picchi passano per il condensatore non ancora carico.
Risultato: PC spento.:)
Oppure, è la mobo che non riesce a stare dietro alle basse oscillazioni.
Risultato: PC spento :)
Gli alimentatori digitali, come i primi flex (tu ne sai qualcosa), avevano proprio il problema di partire da frequenze basse, con problema di oscillazioni severe, che incasinavano le mobo, con conseguente spegnimento (quando andava bene, non nel tuo caso).:)
Cmq, bisogna controllare certi parametri, perchè gestire quasi 500 watt, magari via bios, non sarà una passeggiata per gli ALI.Che faccio?Butto il Seasonic 1200w?
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
Thunder-74
16-07-2020, 15:54
Che faccio?Butto il Seasonic 1200w?
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
Hahahahahah ma non è single rail?
Inviato dal mio iPhone X utilizzando Tapatalk
appleroof
16-07-2020, 16:02
Pure sta storia degli ali, quello in firma ha qualche annetto ma non vedo ancora perché cambiarlo... Ma il nuovo connettore riguarderà solo la 3080ti spero
Pure sta storia degli ali, quello in firma ha qualche annetto ma non vedo ancora perché cambiarlo... Ma il nuovo connettore riguarderà solo la 3080ti spero
E sticazzi a cambiarlo :D
Comunque riguarderà anche la 3080 avendo lo stesso chip/pcb. Ma con l'adattatore si dovrebbe risolvere, l'importante è avere l'erogazione giusta su 2 linee.
Andy1111
16-07-2020, 16:14
Secondo me l'han fatto perché vogliono mettere i cavi in fondo e 3 connettori da 8 non ci stavano
o forse perchè queste nuove vga avranno dei picchi di assorbimento più sostanziosi delle vga passate.
P.s. mi tengo stretto il mio vecchio antec 1000 platinum
https://pcper.com/wp-content/uploads/2012/04/d8d1-5-nameplate.jpg
Thunder-74
16-07-2020, 16:16
Guarda te se nVidia si mette a vendere anche ALI certificati ...
Inviato dal mio iPhone X utilizzando Tapatalk
appleroof
16-07-2020, 16:16
E sticazzi a cambiarlo :D
Comunque riguarderà anche la 3080 avendo lo stesso chip/pcb. Ma con l'adattatore si dovrebbe risolvere, l'importante è avere l'erogazione giusta su 2 linee.
Speriamo guarda, in realtà punto la 3070 ma per tempistiche valuterò la 3080 :rolleyes:.... sulle due linee sono a posto vediamo se mettono un adattatore e pazienza dell'estetica (mi so fatto vecchio :asd: )
Speriamo guarda, in realtà punto la 3070 ma per tempistiche valuterò la 3080 :rolleyes:.... sulle due linee sono a posto vediamo se mettono un adattatore e pazienza dell'estetica (mi so fatto vecchio :asd: )
Se non sbaglio il tuo ha 70A in single rail, 'na bestia :D
Tra l'altro devo dire che pure il mio G3 1000W con i suoi 83A è bello che pronto :asd:
Probabilmente sarà il componente più longevo insieme al case...
mikael84
16-07-2020, 16:41
vade retro :D comunque lato ali ho da poco preso un 1000w seasonic sostituendo il glorioso ax850. pensavo fosse overpower .. a parte le battute mi sembra un po tutto assurdo aspettiamo news certe
Non preoccuparti. Certo come detto sopra, i condensatori vengono provati, e se hai poca efficienza, sarebbe meglio farci un pensierino.
Non dovresti avere alcun problema.:)
infatti valuterò le prestazioni a 320w non quelle ipotetiche ottenibili senza freni, magari a 320 la 3080 la spingi un po e la Ti la freni un po magari si rosicchia un altro 5% sul +20% in raster...poi in rt è da vedere
Bisogna pure vedere da che cosa sono giustificati questi TDP estremi, sopratutto se parliamo di raster. Ok sono 7 motori raster (la 1080 aveva, ad esempio 4x45/180w, con 7 320w).
Le tensioni anche, non mi ispirano fiducia, già i 14lpp, partivano da 1,1v.
AMD con 4 raster, ha varie custom ad 1,2v da 260/270w.
Che faccio?Butto il Seasonic 1200w?
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
Al massimo butta la 3080ti, poi dimmi dove la butti.:fiufiu:
Pure sta storia degli ali, quello in firma ha qualche annetto ma non vedo ancora perché cambiarlo... Ma il nuovo connettore riguarderà solo la 3080ti spero
Il problema è che la 3080 è lo stesso chip della TI.:)
Cmq non farti troppi problemi.
mircocatta
16-07-2020, 16:42
Pure sta storia degli ali, quello in firma ha qualche annetto ma non vedo ancora perché cambiarlo... Ma il nuovo connettore riguarderà solo la 3080ti spero
abbiamo una singola linea tosta noi, tranquillo :O
certo è che questa storia fa storcere il naso a molti :stordita:
fabietto27
16-07-2020, 17:00
Hahahahahah ma non è single rail?
Inviato dal mio iPhone X utilizzando TapatalkBeh sì....single rail 100A
Inviato dal mio OnePlus 7 Pro utilizzando Tapatalk
devil_mcry
16-07-2020, 17:23
350 è la richiesta della Titan con 24gb, le altre vanno a 320 di tdp, ed anche la 3080 liscia è basata su tale chip.
Non è confortante onestamente. Sapevo che il chip della 3080 era lo stesso ma speravo che taglia di qui taglia di li ci fosse più differenza dalla versione full
25 su due linee. Se è quello per una TI non va bene.
Dovrebbe essere quello, ma comunque io vorrei una 3080 liscia.
Mal che vada ripiegherò su una 3070 TI (ho capito che ci saranno 2 versioni di quel chip 3070 ti e 3070), però mi sarebbe piaciuto passare alla 3080
Cambiare l'ali purtroppo non è una opzione, non tanto economicamente, quanto praticamente
Kingdemon
16-07-2020, 17:29
Pure sta storia degli ali, quello in firma ha qualche annetto ma non vedo ancora perché cambiarlo... Ma il nuovo connettore riguarderà solo la 3080ti spero
abbiamo una singola linea tosta noi, tranquillo :O
certo è che questa storia fa storcere il naso a molti :stordita:
Vedo che non sono l'unico con un ax io ho il fratellino :D
Non è confortante onestamente. Sapevo che il chip della 3080 era lo stesso ma speravo che taglia di qui taglia di li ci fosse più differenza dalla versione full
A livello di consumi sicuramente ci sarà differenza, a meno che sparino le frequenze e di conseguenza le tensioni.
A livello di TDP dubito, secondo me useranno lo stesso dissipatore.
devil_mcry
16-07-2020, 17:51
A livello di consumi sicuramente ci sarà differenza, a meno che sparino le frequenze e di conseguenza le tensioni.
A livello di TDP dubito, secondo me useranno lo stesso dissipatore.
Eh si però diciamo che fa sperare poco :D
mikael84
16-07-2020, 18:08
Non è confortante onestamente. Sapevo che il chip della 3080 era lo stesso ma speravo che taglia di qui taglia di li ci fosse più differenza dalla versione full
Dovrebbe essere quello, ma comunque io vorrei una 3080 liscia.
Mal che vada ripiegherò su una 3070 TI (ho capito che ci saranno 2 versioni di quel chip 3070 ti e 3070), però mi sarebbe piaciuto passare alla 3080
Cambiare l'ali purtroppo non è una opzione, non tanto economicamente, quanto praticamente
Nvidia mediamente tara il regolatore, e lo piomba su quei valori. Sicuramente ci sarà una situazione simil 780.
Capiterà che su banco di prova, una tenderà a stock a downclockare più dell'altra.
Varieranno probabilmente le custom, ma siamo sempre ad altissime specifiche.
Ripiegare su GA104 mi pare una buona soluzione.
Al momento si speculano due chip, il full ed il cut, ma i nomi ancora non si conoscono.
In ogni caso, se punti a questo, prendi il full.
A parer mio, potrebbe essere il best buy.
La 3080 non mi ispira molto essendo un derivato del chippone.
devil_mcry
16-07-2020, 18:16
Nvidia mediamente tara il regolatore, e lo piomba su quei valori. Sicuramente ci sarà una situazione simil 780.
Capiterà che su banco di prova, una tenderà a stock a downclockare più dell'altra.
Varieranno probabilmente le custom, ma siamo sempre ad altissime specifiche.
Ripiegare su GA104 mi pare una buona soluzione.
Al momento si speculano due chip, il full ed il cut, ma i nomi ancora non si conoscono.
In ogni caso, se punti a questo, prendi il full.
A parer mio, potrebbe essere il best buy.
La 3080 non mi ispira molto essendo un derivato del chippone.
Ma il GA104 full sarebbe ipoteticamente parlando paragonabile a...?
Escono tutti insieme? Io vorrei prenderla non subitissimo, penso dopo PS5, alla peggio inizio 2021
Questi leak rimangono gli ultimi? https://www.tomshw.it/hardware/dei-leak-ipotizzano-le-specifiche-tecniche-delle-rtx-3070-e-rtx-3070-ti/
mikael84
16-07-2020, 18:28
Ma il GA104 full sarebbe ipoteticamente parlando paragonabile a...?
Escono tutti insieme? Io vorrei prenderla non subitissimo, penso dopo PS5, alla peggio inizio 2021
Questi leak rimangono gli ultimi? https://www.tomshw.it/hardware/dei-leak-ipotizzano-le-specifiche-tecniche-delle-rtx-3070-e-rtx-3070-ti/
Si quei leak sono gli ultimi, anche se alcune cose come la velocità delle memorie è sballata, non esistono quelle memorie (per ora abbiamo 16 samsung e micron e 18 rambus).
Per farla proprio semplice, il GA104 sarà il chip della 2080s pompato ad 8nm (con più l2, probabile più l1), tensor. rt new gen e clock un tantino pompato.
Mentre la 3080, una 2080ti che segue praticamente lo stesso percorso.
La 3080ti invece dovrebbe adottare il full GA102, con 5376cc o con una piccolissima decurtazione sui cc.
Per l'uscita di GA104 si parla di 1/2 mesi dopo, per ora viene dato un q4 generico.
devil_mcry
16-07-2020, 18:38
aspettarsi che la 3070 ti sia vicina alla 2080 ti è folle?
avrei preferito la 3080 anche se castrata ma a questo punto inizierò già da ora a farmene una ragione lol
amon.akira
16-07-2020, 18:58
aspettarsi che la 3070 ti sia vicina alla 2080 ti è folle?
avrei preferito la 3080 anche se castrata ma a questo punto inizierò già da ora a farmene una ragione lol
prendi la 2080s (3072cc) e mettici un ipc migliorato del 15% e sfrutta il pp a 8nm per recuperare clock che dici nn la becchi la 2080ti? poi in raytracing la passerà in scioltezza
mikael84
16-07-2020, 18:58
aspettarsi che la 3070 ti sia vicina alla 2080 ti è folle?
avrei preferito la 3080 anche se castrata ma a questo punto inizierò già da ora a farmene una ragione lol
Assolutamente no, se guardiamo già oggi, la differenza nelle medie sta tra il 18 ed il 20%
Sul nuovo DS, siamo addirittura al 15%
https://tpucdn.com/review/death-stranding-benchmark-test-performance-analysis/images/performance-3840-2160.png
Diciamo che la 2080ti è molto più muscle, ma ha un sistema un pò collabrodo, come la x70 liscia, mentre lo schema della 2080s è ben più efficiente ed equilibrato.
Ci si aspetta quindi un clock più alto (anche se con questo PP non bisogna chiedere troppo), ed un raddoppio sulle cache.
Via RT, ovviamente sarà più potente della 2080ti.:)
Via tensor, per DLSS umiliata proprio.
OrazioOC
16-07-2020, 19:23
aspettarsi che la 3070 ti sia vicina alla 2080 ti è folle?
avrei preferito la 3080 anche se castrata ma a questo punto inizierò già da ora a farmene una ragione lol
Ci starebbe tutto, la 2080s ad oggi è tra il 15 e il 20% più lenta della 2080 ti, con un boost di frequenze e qualcosina in ipc, ce la può fare.
aspettarsi che la 3070 ti sia vicina alla 2080 ti è folle?
avrei preferito la 3080 anche se castrata ma a questo punto inizierò già da ora a farmene una ragione lolAnche io starei puntando sulla 3070ti ma bisogna vedere il prezzo se la piazzano sui 500€ posso anche farti un pensierino ma dubito fortemente..
Inviato dal mio ELE-L29 utilizzando Tapatalk
devil_mcry
16-07-2020, 20:00
beh dai se va come una 2080 ti ho comunque un bel upgrade dalla mia 1080 sia pe il 1440p che per il 4k è il dlss2
per il prezzo non ne ho idea ma a sto punto la cifra è più bassa della 3080 di sicuro
mi fa ridere solo una cosa, 10 anni fa non lavoravo e l’hw costava poco, tempo che ho iniziato a lavorare e avere uno stipendio decente tutto è schizzato alle stelle lol
Jeetkundo
16-07-2020, 20:17
Ma se dite che la 3070ti va come la 2080ti allora la 3080ti sarà un missile da +50% sulla vecchia top gamma?
Inviato dal mio LYA-L09 utilizzando Tapatalk
amon.akira
16-07-2020, 20:45
Ma se dite che la 3070ti va come la 2080ti allora la 3080ti sarà un missile da +50% sulla vecchia top gamma?
Inviato dal mio LYA-L09 utilizzando Tapatalk
+40% sicuro, ma ripeto secondo me le uscite future avranno tutte componenti rt, quindi la serie 3000 converrà a tutti i lv
Come dicevo qualche giorno fa, ecco come Ampere andrà domani come turing sui giochi di oggi.
https://www.nvidia.com/en-us/geforce/news/cyberpunk-2077-ray-tracing-dlss-geforce-now-screenshots-trailer/
beh dai se va come una 2080 ti ho comunque un bel upgrade dalla mia 1080 sia pe il 1440p che per il 4k è il dlss2
per il prezzo non ne ho idea ma a sto punto la cifra è più bassa della 3080 di sicuro
mi fa ridere solo una cosa, 10 anni fa non lavoravo e lhw costava poco, tempo che ho iniziato a lavorare e avere uno stipendio decente tutto è schizzato alle stelle lolAhaha mi è capitata la stessa cosa ... Nel 2009 con 480€ ti prendevi il top del top in assoluto (gtx295) adesso e da qualche anno a questa parte se ti va bene una serie 70
Inviato dal mio ELE-L29 utilizzando Tapatalk
appleroof
17-07-2020, 00:00
Se non sbaglio il tuo ha 70A in single rail, 'na bestia :D
Tra l'altro devo dire che pure il mio G3 1000W con i suoi 83A è bello che pronto :asd:
Probabilmente sarà il componente più longevo insieme al case...
In genere ho senpre preso ali in ottica di tenerli anni, spero regga anche Ampere appunto :D
Il problema è che la 3080 è lo stesso chip della TI.:)
Cmq non farti troppi problemi.
Si l'ho capito Mike, però essendo castrato giocoforza avrà me o fame di energia, credo...
P. S. Il mio quinto senso e mezzo verde pure mi dice la 3070ti sarà il bestbuy, solo che sti porconi la fanno uscire dopo (appunto)
abbiamo una singola linea tosta noi, tranquillo :O
certo è che questa storia fa storcere il naso a molti :stordita:
Vedo che non sono l'unico con un ax io ho il fratellino :D
Gran bell'ali :sborone:
Come dicevo qualche giorno fa, ecco come Ampere andrà domani come turing sui giochi di oggi.
https://www.nvidia.com/en-us/geforce/news/cyberpunk-2077-ray-tracing-dlss-geforce-now-screenshots-trailer/Sia questo che watchdog legions saranno due mattonazzi pazzeschi
secondo me a livello di psu non cambierà nulla.
al massimo se questo 12pin diventerà uno standard fanno il cavo di spessore maggiore e fine.
prego che non torniamo come una volta con 4/5 rail della 12V sarebbe veramente un bel passo indietro.
speriamo
partivo dal presupposto che lo schema di efficienza salterebbe per come è pensato oggi.
Venderebbero un psu costantemente oltre soglia con grosse vga.
25 su due linee. Se è quello per una TI non va bene.cut
Cmq, bisogna controllare certi parametri, perchè gestire quasi 500 watt, magari via bios, non sarà una passeggiata per gli ALI.
ne sono assolutamente convinto.
In configurazione duale ci potrebbe stare a fronte di una maggiore complessità di ponti raddrizzatori filtri commutatori al primario.
Al secondario capacitori e mosfet per la 12v andrebbero raddoppiati per soddisfare l 80p su due main big rail
devil_mcry
17-07-2020, 08:59
Comunque probabilmente questo frangente di sviluppo dei Tensor Core richiede qualche sacrificio, però dopo anni di schede molto efficienti dal punto di vista energetico fa strano vedere questi tdp lol
Thunder-74
17-07-2020, 09:08
Ragazzi su nVidia Italia ho trovato questo ...
https://uploads.tapatalk-cdn.com/20200717/230d8f1a948d1f41f34a0b59d41f82e0.jpg
:fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
fraussantin
17-07-2020, 09:12
Cmq la storia del cambio PSU ê Una follia. Se fosse vero si giocano mezze vendite.
Secondo me usciranno anche custom con GLI attacchi standard da 3x8.
Comunque probabilmente questo frangente di sviluppo dei Tensor Core richiede qualche sacrificio, però dopo anni di schede molto efficienti dal punto di vista energetico fa strano vedere questi tdp lolSecondo me hanno cannato con gli 8nm ( che poi sono 10 reali)
mircocatta
17-07-2020, 09:26
Cmq la storia del cambio PSU ê Una follia. Se fosse vero si giocano mezze vendite.
Secondo me usciranno anche custom con GLI attacchi standard da 3x8.
Secondo me hanno cannato con gli 8nm ( che poi sono 10 reali)
il punto è che anche gli attuali 8 pin reggono fino a 300 watt ma sono certificati per 150, imho sarà uguale per questo 12 pint, cavi che reggono fino a 600watt ma che certificheranno a 300 o forse poco più
fraussantin
17-07-2020, 09:38
il punto è che anche gli attuali 8 pin reggono fino a 300 watt ma sono certificati per 150, imho sarà uguale per questo 12 pint, cavi che reggono fino a 600watt ma che certificheranno a 300 o forse poco piùIl problema della certificazione è che è stata fatta secoli fa e gli alimentatori "cinesi" da 15 euro li montano su cavi pietosi.
Se questi te li certificano da 600w e per averli certificati ti impongono un cavo di un certo spessore non si pone il problema.
Il problema per qualcuno è averci un PC da 3000 euro con un ali da 300 e doverlo cambiare per non fare accrocchi .
Ammesso poi che sia possibile adattare 3x(6+2) ad uno da 12.
Se poi prende campo sta cretinata , è probabile che sulle 4000 verrà usato come standard al posto del doppio cavo per tutta la gamma.
Thunder-74
17-07-2020, 09:55
Che bello... c'è chi prenderà una PS5 e chi per lo stesso prezzo una PSU... hahahah scusate non ho resistito alla battuta :fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
scorpion73
17-07-2020, 10:13
Si ma hanno rotto le balle sinceramente con ste cose.
Adesso uno cambia la PSU perché nvidia non riesce con il nuovo pp a stare dentro i limiti energetici, ma anche no direi.
Alimentatori presi poco fa, ottimi e di marca, li devo cambiare per la nuova ampere?
Adesso vi dico io come funziona, almeno per me: se esce una scheda 30x0 che si può collegare con gli alimentatori esistenti, mi prenderò quella a potenzialità più alta; se l'unica capace di reggere un ali standard è la 3060 mi compro una PS5 e li mando a cagare tutti quanti, e al limite per il PC aspetto una Big Navi, se anche loro non faranno sta follia.
Mi sono veramente rotto di spendere non solo una follia per la scheda video (e fin li si può anche discutere) ma che devo anche cambiare alimentatore, e non solo spenderci altri soldi, ma anche sfasciare tutto dentro al case per ricablare sinceramente anche no.
stop. se è così o si va di 3080 (se supporta i connettori vecchi), di 3070, se è meglio della mia 2080ti, oppure si compra una PS5 e stanno bene cosi'.
Thunder-74
17-07-2020, 10:24
Si ma hanno rotto le balle sinceramente con ste cose.
Adesso uno cambia la PSU perché nvidia non riesce con il nuovo pp a stare dentro i limiti energetici.
Alimentatori presi poco fa, ottimi e di marca, li devo cambiare per la nuova ampere?
Adesso vi dico io come funziona, almeno per me: se esce una scheda 30x0 che si può collegare con gli alimentatori esistenti, mi prenderò quella a potenzialità più alta; se l'unica capace di reggere un ali standard è la 3060 mi compro una PS5 e li mando a cagare tutti quanti, e al limite per il PC aspetto una Big Navi, se anche loro non faranno sta follia.
Mi sono veramente rotto di spendere non solo una follia per la scheda video (e fin li si può anche discutere) ma che devo anche cambiare alimentatore, e non solo spenderci altri soldi, ma anche sfasciare tutto dentro al case per ricablare sinceramente anche no.
stop. se è così o si va di 3080 (se supporta i connettori vecchi), di 3070, se è meglio della mia 2080ti, oppure si compra una PS5 e stanno bene cosi'.
Dai che ancora non si sa nulla di certo... Io scherzavo con i miei due post ;)
Voglio vedere il bicchiere mezzo pieno.... eventualmente sarà l occasione per prendere un ottimo ALI con gli Errrrreeegggggiiibbbbiiii :D
Prendiamola a ridere ;)
Inviato dal mio iPhone X utilizzando Tapatalk
mircocatta
17-07-2020, 10:36
vabbuo, tanto la 3080ti non me la potrei permettere, neanche una eventuale 3080 da 900€
vediamo se anche quelle inferiori monteranno tale connettore ma sopratutto cosa offrirà amd con big navi, che almeno fino alla fascia della 3080 dovrebbe competere
maxmix65
17-07-2020, 11:08
Se non sbaglio il tuo ha 70A in single rail, 'na bestia :D
Tra l'altro devo dire che pure il mio G3 1000W con i suoi 83A è bello che pronto :asd:
Probabilmente sarà il componente più longevo insieme al case...
Con il mio tenevo overcloccate 3 gtx 570 a palla
Mi si spense raggiungendo i 1293w
ora che faccio lo butto ?? Ma quelli di Nvidia stanno fuori mi sa
https://i.postimg.cc/PCgFGVcW/fuyfuyuy.jpg (https://postimg.cc/PCgFGVcW)
mikael84
17-07-2020, 11:18
Cmq la storia del cambio PSU ê Una follia. Se fosse vero si giocano mezze vendite.
Secondo me usciranno anche custom con GLI attacchi standard da 3x8.
Secondo me hanno cannato con gli 8nm ( che poi sono 10 reali)
il punto è che anche gli attuali 8 pin reggono fino a 300 watt ma sono certificati per 150, imho sarà uguale per questo 12 pint, cavi che reggono fino a 600watt ma che certificheranno a 300 o forse poco più
A parer mio è un fake gigante.;)
Dai che ancora non si sa nulla di certo... Io scherzavo con i miei due post ;)
Voglio vedere il bicchiere mezzo pieno.... eventualmente sarà l occasione per prendere un ottimo ALI con gli Errrrreeegggggiiibbbbiiii :D
Prendiamola a ridere ;)
Inviato dal mio iPhone X utilizzando Tapatalk
Non è certificato da nessuna parte, stiamo parlando di un colossale fake per me.
L'idea è buona per lo spazio, ma per come la vedo io, è simile alle gddr6x che non esistono.
Comunque probabilmente questo frangente di sviluppo dei Tensor Core richiede qualche sacrificio, però dopo anni di schede molto efficienti dal punto di vista energetico fa strano vedere questi tdp lol
I tensor core di turing sono in peso l'equivalente delle ALU, su volta e ampere sono 2 volte tanto. Ecco perchè su Turing gli hanno dimezzati.
Predator_1982
17-07-2020, 12:00
Cmq la storia del cambio PSU ê Una follia. Se fosse vero si giocano mezze vendite.
Secondo me usciranno anche custom con GLI attacchi standard da 3x8.
Secondo me hanno cannato con gli 8nm ( che poi sono 10 reali)
se è così potrebbe essere che più banalmente, insieme alla scheda video, verrà fornito l'adattatore che prende i 2 molex 6+2 e, con un banale parallelo, esce con un 12 pin, non vedo tutto questo problema.
DarkNiko
17-07-2020, 12:11
se è così potrebbe essere che più banalmente, insieme alla scheda video, verrà fornito l'adattatore che prende i 2 molex 6+2 e, con un banale parallelo, esce con un 12 pin, non vedo tutto questo problema.
Ma infatti non si capisce perché alcuni amino fasciarsi la testa prima di essersela rotta (ammesso che se la rompano). :asd:
Ma infatti non si capisce perché alcuni amino fasciarsi la testa prima di essersela rotta (ammesso che se la rompano). :asd:
Perchè mi interessa una gpu, non cambiare psu.
Non vedo come da un punto di vista marketing o consumer la cosa possa suonare minimamente bene.
scorpion73
17-07-2020, 12:27
Perchè mi interessa una gpu, non cambiare psu.
Non vedo come da un punto di vista marketing o consumer la cosa possa suonare minimamente bene.
Concordo.
Detto che, ovviamente, se mi danno un adattatore decente e sicuro, la questione non si pone più.
Ma se devo cambiare PSU a sto giro mando a quel paese Nvidia e le sue follie.
Thunder-74
17-07-2020, 12:37
dico una cosa... se tutto dovesse essere confermato, a che servirebbe prendere due connettori da 8 ed usare un adattatore a 12 pin? tanto vale usare i due connettori direttamente sulla scheda come avviene su molte custom .
Diverso se si volesse l'equiparabile di tre cavi odierni da 8, collegarli con unico da 12 per un discorso di layout del PCB.
Comunque attendiamo che tutto è ancora campato in aria.
Predator_1982
17-07-2020, 12:41
Concordo.
Detto che, ovviamente, se mi danno un adattatore decente e sicuro, la questione non si pone più.
Ma se devo cambiare PSU a sto giro mando a quel paese Nvidia e le sue follie.
mi spiego meglio, da un punto di vista pratico e tecnico, realizzare un molex 12 pin sicuro è una fesseria, devono alimentare una scheda video non un motore elettrico trifase da 1000 Kw... tra l'altro, come saprete, con un banale parallelo di 2 rail da 12 volt (solitamente già ben strutturati in alimentatori di qualità), è possibile garantire potenza sufficiente ad un utilizzatore elettrico ben più impegnativo.
Se poi una persona, nella propria configurazione, monta un alimentatore "cinese" e una scheda video da 1000 euro...beh il problema non è il connettore...è altrove
mircocatta
17-07-2020, 12:45
Concordo.
Detto che, ovviamente, se mi danno un adattatore decente e sicuro, la questione non si pone più.
Ma se devo cambiare PSU a sto giro mando a quel paese Nvidia e le sue follie.
mah io ho anche speso tanti soldini per l'estetica del case, mi seccherebbe usare un adattatore :stordita:
Anche io starei puntando sulla 3070ti ma bisogna vedere il prezzo se la piazzano sui 500€ posso anche farti un pensierino ma dubito fortemente..
Impossibile: minimo 500 per la 3070 liscia e 600 per la Ti.
Io sto sperando di poter saltare questa generazione a piè pari :)
fraussantin
17-07-2020, 13:10
mah io ho anche speso tanti soldini per l'estetica del case, mi seccherebbe usare un adattatore :stordita:Il problema non sarebbe neanche quello , sicuramente li faranno lunghi in modo da portare gli attacchi dietro il pannello .
É che adattatori per 400w di potenza sono un po' una porcata e servono di buona qualità perché potrebbero creare problemi.
Cioé non é che é una ventola ... É una GPU tirata al collo.
mattxx88
17-07-2020, 13:12
Ragazzi su nVidia Italia ho trovato questo ...
https://uploads.tapatalk-cdn.com/20200717/230d8f1a948d1f41f34a0b59d41f82e0.jpg
:fagiano:
Inviato dal mio iPhone X utilizzando Tapatalk
Trollano anche? :mbe: :mbe: :rolleyes:
DarkNiko
17-07-2020, 13:29
Perchè mi interessa una gpu, non cambiare psu.
Non vedo come da un punto di vista marketing o consumer la cosa possa suonare minimamente bene.
Ma scusami, chi ha mai decretato o imposto che tu debba cambiare il tuo alimentatore ? :rolleyes:
Concordo.
Detto che, ovviamente, se mi danno un adattatore decente e sicuro, la questione non si pone più.
Ma se devo cambiare PSU a sto giro mando a quel paese Nvidia e le sue follie.
Di solito, forniscono connettori anche per chi ha alimentatori che non valgono letteralmente niente. Poi ci stiamo preoccupando di un qualcosa che:
1) Potrebbe essere una bufala
2) Rappresenta una voce di corridoio la cui attendibilità è quella che è.
Ripeto, perché farsi problemi quando non esistono? :rolleyes:
speriamo
partivo dal presupposto che lo schema di efficienza salterebbe per come è pensato oggi.
Venderebbero un psu costantemente oltre soglia con grosse vga.
ne sono assolutamente convinto.
In configurazione duale ci potrebbe stare a fronte di una maggiore complessità di ponti raddrizzatori filtri commutatori al primario.
Al secondario capacitori e mosfet per la 12v andrebbero raddoppiati per soddisfare l 80p su due main big rail
bhe dipende che psu possiedi ma dubito fortemente che una 3080ti superi i 400w oltre al discorso consumi c'è il discorso temperature... per dissipare 400w ci vuole un dissi veramente cazzuto.
per quanto riguarda la certificazione dei cavi reputo assurdo che un cavo 8pin pci-e sia certificato per 150w quando in realtà può superare senza problemi i 300w
ninja750
17-07-2020, 13:46
Ragazzi su nVidia Italia ho trovato questo ...
https://uploads.tapatalk-cdn.com/20200717/230d8f1a948d1f41f34a0b59d41f82e0.jpg
https://linustechtips.com/main/uploads/monthly_2016_08/1.jpg.5fbe33e7d04bf7cba7f49cadc2d2ae4d.jpg
bhe dipende che psu possiedi ma dubito fortemente che una 3080ti superi i 400w oltre al discorso consumi c'è il discorso temperature... per dissipare 400w ci vuole un dissi veramente cazzuto.
per quanto riguarda la certificazione dei cavi reputo assurdo che un cavo 8pin pci-e sia certificato per 150w quando in realtà può superare senza problemi i 300w
Ci sarà un case dedicato alla scheda video con dissipazione a parte.
mikael84
17-07-2020, 14:26
Il problema non sarebbe neanche quello , sicuramente li faranno lunghi in modo da portare gli attacchi dietro il pannello .
É che adattatori per 400w di potenza sono un po' una porcata e servono di buona qualità perché potrebbero creare problemi.
Cioé non é che é una ventola ... É una GPU tirata al collo.
E' un fake ragazzi:p
Di solito, forniscono connettori anche per chi ha alimentatori che non valgono letteralmente niente. Poi ci stiamo preoccupando di un qualcosa che:
1) Potrebbe essere una bufala
2) Rappresenta una voce di corridoio la cui attendibilità è quella che è.
Ripeto, perché farsi problemi quando non esistono? :rolleyes:
E' vera tanto quanto le gddr6x a 21gb/s. :D
E' fake.
Giovamas
17-07-2020, 14:35
E' un fake ragazzi:p
E' vera tanto quanto le gddr6x a 21gb/s. :D
E' fake.
è stato in effetti il mio primo pensiero
mikael84
17-07-2020, 15:09
è stato in effetti il mio primo pensiero
Infatti non esiste alcun connettore a 12pin.
Inoltre dovrebbe lavorare a 6A, contro i 2 del 6 pin.
Basterebbe far lavorare 2 x6 pin a 6A ed avresti 216 x2:)
fraussantin
17-07-2020, 15:14
Ma infatti la logica vorrebbe che prima esca il connettore come standard , poi gli alimentatori si adattano e dopo iniziano ad arrivare le GPU.
Fare uscire a sorpresa una GPU senza manco un alimentatore compatibile sul mercato é un mezza idiozia
Speriamo per il fake !
mikael84
17-07-2020, 15:26
Ma infatti la logica vorrebbe che prima esca il connettore come standard , poi gli alimentatori si adattano e dopo iniziano ad arrivare le GPU.
Fare uscire a sorpresa una GPU senza manco un alimentatore compatibile sul mercato é un mezza idiozia
Speriamo per il fake !
Chiaro che è fake, chi ha comprato un titanio da 1600, si mette ad usare molex?:p
E' vero quanto le gddr6x da 21gb/s.
2x 6 pin, offrono la stessa corrente a 6 A.
Quello è praticamente un unico 12pin.
Inoltre se prendiamo un multi rail, chi è che ha 36A per alimentarlo.:)
Predator_1982
17-07-2020, 17:52
E' sempre così...ad ogni attesa di nuove GPU ad un certo punto la gente esaurisce gli argomenti, sclera e inizia a inventare boiate o a perdersi sul conteggio dei peli pur di chiacchierare.
OrazioOC
17-07-2020, 17:56
E' sempre così...ad ogni attesa di nuove GPU ad un certo punto la gente sclera e inizia a inventare boiate o a perdersi sul conteggio dei peli pur di chiacchierare.
E non è l'unico thread in cui succede. :asd:
thunderforce83
17-07-2020, 18:36
mamma quante cavolate sparate da quasi tutte le testate su ampere:D
mancava qualcuno che denunciava nvidia per uso di connettori non autorizzati prima dell'uscita ahahahah:sofico:
fireradeon
17-07-2020, 23:46
Sinceramente per ora non mi entusiasma....lo trovo piuttosto soft e blurrato.
Ok che magari con un pò di sharpening migliora ma ormai c'è sempre da smanettare per recuperare nitidezza.
Inoltre la questione di mantenersi in equilibrio pompando con le braccia è esilarante. Diciamo che visto il gioco....io non avrei mai usato il viso di quell'attore per il personaggio :stordita:
Mah...io ormai sono nell'ottica di vedere vga sempre più costose, delle hyperate enormi sulle nuove features ma poi sti porting hanno sempre qualche carenza.
Io l'ho giocato e finito già da un pezzo sulla PS4 Pro e mi è piaciuto. Kojma è l'unico visionario capace di offrire qualcosa di nuovo anche rischiando.
Il gioco o lo ami o lo odi non ha vie di mezzo.
https://i.imgflip.com/48m83u.jpg
amon.akira
18-07-2020, 00:22
cut
la migliore finora :sofico:
mikael84
18-07-2020, 00:38
cut
la migliore finora :sofico:
Della serie, Ampere aumenterà gli ampere ai connettori.
slide1965
18-07-2020, 01:18
Fake o meno se devo cambiare psu di principio non la prendo , vanno a zappare :read: :read:
Fake o meno se devo cambiare psu di principio non la prendo , vanno a zappare :read: :read:
Non costringeranno mai le persone ad fare un update forzato di un componente, manco se fosse solo per la TI, e manco se fossero produttori di PSU
Fake o meno se devo cambiare psu di principio non la prendo , vanno a zappare :read: :read:
Non li faccio cosi sprovveduti, chiacchiere..;)
devil_mcry
18-07-2020, 08:40
Alla fine in un turbinio di casini ho dovuto cambiare praticamente tutto... ho preso un corsair tx850 gold, immagino basterà per la 3080, spero
Giovamas
18-07-2020, 08:44
Fake o meno se devo cambiare psu di principio non la prendo , vanno a zappare :read: :read:
quoto... ma siamo matti.. fosse vero si valuta amd
Alla fine in un turbinio di casini ho dovuto cambiare praticamente tutto... ho preso un corsair tx850 gold, immagino basterà per la 3080, spero
Direi che puoi stare decisamente tranquillo...
Io mi tengo basso, punto alla 3070, e il mio EVGA non me lo smuove nessuno ha dieci anni di garanzia e fino al 2024 non voglio saperne nulla.
devil_mcry
18-07-2020, 09:18
Direi che puoi stare decisamente tranquillo...
Io mi tengo basso, punto alla 3070, e il mio EVGA non me lo smuove nessuno ha dieci anni di garanzia e fino al 2024 non voglio saperne nulla.
Io potessi, non lo avrei cambiato. Il case vecchio mi piaceva un casino
Pace
Io devo aggiornare quasi tutto, tra cui anche il case...
Quando presi lo stryker lo presi in ottica sli/cross, ma oggi non ha minimamente senso e vorrei qualcosa di decisamente più compatto.
devil_mcry
18-07-2020, 09:38
Io devo aggiornare quasi tutto, tra cui anche il case...
Quando presi lo stryker lo presi in ottica sli/cross, ma oggi non ha minimamente senso e vorrei qualcosa di decisamente più compatto.
io avevo un itx, sono dovuto passare a un case mini (l'nzxt h400i)
il case è anche bello sia di fattura che esteticamente, ma come lo uso io è sprecato e poi è troppo grosso
Thunder-74
18-07-2020, 09:44
https://uploads.tapatalk-cdn.com/20200718/9cf354ace984a491ff845fc7d2dcdaa5.jpg
Inviato dal mio iPad utilizzando Tapatalk
fake o meno tutti i psu di andare andranno.
Passeranno da 80plus a 50plus in base allo scenario
Thunder-74
18-07-2020, 11:01
Ma veramente bisogna discutere di una questione così ridicola e palesemente fake?
Continuiamo a parlare delle 3000 che attendo con molta ansia :D
Diciamo che questo è il posto giusto per commentare tutti i rumors, mettendo in conto le miriadi di cavolate che ne possono uscire . Del resto ad oggi di certo c è poco ... e poi certe notizie posso essere un diversivo all attesa :)
Inviato dal mio iPhone X utilizzando Tapatalk
TigerTank
18-07-2020, 11:08
Eheheh speriamo si chiarisca presto sta storia del connettore :sofico:
Se fosse fake, meglio, se non lo fosse che mettano almeno in bundle un adattatore scrauso per poi prendere un cavo adeguato...soprattutto per chi come me si è preso dei kit sleevati(nel mio caso evga).
Ma far cambiare alla gente alimentatori(pure costosi) per piazzare una nuova generazione solo per uno stupido nuovo connettore e relativo supporto, sarebbe assurdo, soprattutto di questi tempi :sofico:
P.S. Intanto sto reinstallando tutto da 0, dopo 3 anni, per ripartire con un sistema pulito :asd:
Eheheh speriamo si chiarisca presto sta storia del connettore :sofico:
Se fosse fake, meglio, se non lo fosse che mettano almeno in bundle un adattatore scrauso per poi prendere un cavo adeguato...soprattutto per chi come me si è preso dei kit sleevati(nel mio caso evga).
Ma far cambiare alla gente alimentatori(pure costosi) per piazzare una nuova generazione solo per uno stupido nuovo connettore e relativo supporto, sarebbe assurdo, soprattutto di questi tempi :sofico:
Vabbè se il connettore esiste o meno non è che cambi molto...
Se davvero ci sarà un 12pin viste le specifiche è utile solo per le GPU più estreme come quelle che oggi adattano 3 connettori 8pin.
Alla fine 2x8pin + pcie rientrano tranquilli nel range 375-400w, e ad aria dubito fortemente che si superi questa soglia per i chipponi.
TigerTank
18-07-2020, 11:25
Vabbè se il connettore esiste o meno non è che cambi molto...
Se davvero ci sarà un 12pin viste le specifiche è utile solo per le GPU più estreme come quelle che oggi adattano 3 connettori 8pin.
Alla fine 2x8pin + pcie rientrano tranquilli nel range 375-400w, e ad aria dubito fortemente che si superi questa soglia per i chipponi.
Eh vediamo...magari ci ritroviamo 3080Ti e 3080 con quel connettore :D
Vedremo quando inizieranno ad uscire i primi rumors concreti e attendibili sulle Founders di nuova generazione. :)
Con Nvidia non si può mai sapere, tante volte pensavamo una cosa e poi era tutt'altro o consideravamo assurde certe cose poi vere.
Basta che appunto non si inventino un qualcosa che preveda un nuovo aggancio a livello di psu e una situazione tipo "sì gli attuali sono compatibili ma i nuovi pensati apposta sono meglio" :sofico:
Thunder-74
18-07-2020, 11:46
Eh vediamo...magari ci ritroviamo 3080Ti e 3080 con quel connettore :D
Vedremo quando inizieranno ad uscire i primi rumors concreti e attendibili sulle Founders di nuova generazione. :)
Con Nvidia non si può mai sapere, tante volte pensavamo una cosa e poi era tutt'altro o consideravamo assurde certe cose poi vere.
Basta che appunto non si inventino un qualcosa che preveda un nuovo aggancio a livello di psu e una situazione tipo "sì gli attuali sono compatibili ma i nuovi pensati apposta sono meglio" :sofico:
Se mai fosse , ci sarebbe l adattatore da due 8 pin. Un ali apposito sarebbe troppo ostativo per le vendite delle vga . Un puro autogol
Inviato dal mio iPhone X utilizzando Tapatalk
mikael84
18-07-2020, 11:50
Eheheh speriamo si chiarisca presto sta storia del connettore :sofico:
Se fosse fake, meglio, se non lo fosse che mettano almeno in bundle un adattatore scrauso per poi prendere un cavo adeguato...soprattutto per chi come me si è preso dei kit sleevati(nel mio caso evga).
Ma far cambiare alla gente alimentatori(pure costosi) per piazzare una nuova generazione solo per uno stupido nuovo connettore e relativo supporto, sarebbe assurdo, soprattutto di questi tempi :sofico:
P.S. Intanto sto reinstallando tutto da 0, dopo 3 anni, per ripartire con un sistema pulito :asd:
E' una burla di qualcuno.:p
E'un 6 pin raddoppiato, non cambia nulla.
Solo che dicono di poter aumentare gli ampere (per gpu ampere).
Se prendi 2 cavi da 6 pin e li porti a 6 A, ottieni la stessa cosa.
Solo che aumentare notevolmente gli A, porta a dei surriscaldamenti.
Un 6 pin a fusione del nocciolo e 10A, può garantire da solo 360watt volendo.:sofico:
fraussantin
18-07-2020, 12:07
E' una burla di qualcuno.:p
E'un 6 pin raddoppiato, non cambia nulla.
Solo che dicono di poter aumentare gli ampere (per gpu ampere).
Se prendi 2 cavi da 6 pin e li porti a 6 A, ottieni la stessa cosa.
Solo che aumentare notevolmente gli A, porta a dei surriscaldamenti.
Un 6 pin a fusione del nocciolo e 10A, può garantire da solo 360watt volendo.:sofico:Se guardi bene non é un 6 PIN raddoppiato , ha uno schema diverso . I PIN "quadrati" sono meno e in posizione diversa.
Spero che sia un fake enorme come una casa ,a se non lo fosse serve un mega adattatore.
mikael84
18-07-2020, 12:16
Se guardi bene non é un 6 PIN raddoppiato , ha uno schema diverso . I PIN "quadrati" sono meno e in posizione diversa.
Spero che sia un fake enorme come una casa ,a se non lo fosse serve un mega adattatore.
Si, ma il succo non cambia, devi sempre lavorare a 6 ampere.
Il 6 pin lavora a 2A
fraussantin
18-07-2020, 12:22
Si, ma il succo non cambia, devi sempre lavorare a 6 ampere.
Il 6 pin lavora a 2AConnettore nuovo cavi nuovi tolleranze nuove. Non é tecnicamente impossibile dai..
Poi son convinto e spero che questo sia una photoshoppata o fatto con una stampante 3dhttps://uploads.tapatalk-cdn.com/20200718/95548bc71716407894eeefb9c1dfca8a.jpg
mikael84
18-07-2020, 12:31
Connettore nuovo cavi nuovi tolleranze nuove. Non é tecnicamente impossibile dai..
Poi son convinto e spero che questo sia una photoshoppata o fatto con una stampante
Ti ripeto, quello è vero come le gddr6x a 21gb/s.
Neppure videocardz l'ha riportato, immagina un pò
In compenso ho trovato questo
https://twitter.com/Eegras/status/1283502323893964800
TigerTank
18-07-2020, 14:30
Sì vede proprio che c'è gente che in lockdown/quarantena non sapeva che fare e si è messa ad elaborare a tavolino delle fake news ingegnose.
Quest'anno è pazzesco...in quanto a disinformazione si stanno raggiungendo apici mostruosi in molti settori :asd:
In ambito vga, dopo la struttura della nuova reference e relativo dissipatore, ora pure il connettore.
Sta a vedere che magari la settimana prossima inizieranno a dire che le nuove vga non saranno più utilizzabili sui monitor gsync compatibili ma solo con gsync nativo :sofico:
Sì vede proprio che c'è gente che in lockdown/quarantena non sapeva che fare e si è messa ad elaborare a tavolino delle fake news ingegnose.
Quest'anno è pazzesco...in quanto a disinformazione si stanno raggiungendo apici mostruosi in molti settori :asd:
In ambito vga, dopo la struttura della nuova reference e relativo dissipatore, ora pure il connettore.
Sta a vedere che magari la settimana prossima inizieranno a dire che le nuove vga non saranno più utilizzabili sui monitor gsync compatibili ma solo con gsync nativo :sofico:
Ma tanto se ne può parlare quanto si vuole, l'unico problema concreto è solo vedere questi chip finalmente in vendita :fagiano:
Una volta in commercio vedremo nell'effettivo consumi, calore e performance...
Thunder-74
18-07-2020, 17:50
Connettore si, connettore no...
Su Tom's Hardware, viene detto che da loro fonti, il connettore effettivamente è reale ed è stato presentato agli standard PCI-SIG. Tuttavia, resta da vedere se passerà l'approvazione.
LINK (https://www.tomshardware.com/news/nvidia-ampere-graphics-cards-may-use-new-12-pin-pcie-power-connector)
fraussantin
18-07-2020, 17:57
Connettore si, connettore no...
Su Tom's Hardware, viene detto che da loro fonti, il connettore effettivamente è reale ed è stato presentato agli standard PCI-SIG. Tuttavia, resta da vedere se passerà l'approvazione.
LINK (https://www.tomshardware.com/news/nvidia-ampere-graphics-cards-may-use-new-12-pin-pcie-power-connector)
MA la cosa più bella è che su Amazon c'è già l'adattatore hahahahaha (ora non disponibilie) (....... ovviamente non è uguale nelle forme dei pin, questo probabilmente serve per avere un solo cavo invece di 2 da 6pin)
https://i.i0AV.pngNon capisco il senso di quel adattatore, se bastava la potenza di 2x8 che senso aveva inventarsi un 12?
L'adattatore doveva essere da 3x8 e prendere i PIN +12 necessari.
TigerTank
18-07-2020, 18:00
Ma tanto se ne può parlare quanto si vuole, l'unico problema concreto è solo vedere questi chip finalmente in vendita :fagiano:
Una volta in commercio vedremo nell'effettivo consumi, calore e performance...
Prima ancora nelle recensioni serie di anteprima :)
@Thunder: Quel cavo credo sia per una connessione specifica su quel modello di alimentatore in parentesi, infatti il 12pin va connesso alla psu ma poi esce con i 2 classici 6+2 maschi alla vga :)
Un eventuale adattatore avrebbe le femmine.
Thunder-74
18-07-2020, 18:02
Non capisco il senso di quel adattatore, se bastava la potenza di 2x8 che senso aveva inventarsi un 12?
L'adattatore doveva essere da 3x8 e prendere i PIN +12 necessari.
Ho eliminato la foto, perchè mi sono reso conto che è un cavo che dai 12 pin collegati all'ali, deriva due cavi da 6+2pin per la VGA.... cavo proprietario dell'ali ;)
Prima ancora nelle recensioni serie di anteprima :)
@Thunder: Quel cavo credo sia per una connessione specifica su quel modello di alimentatore in parentesi, infatti il 12pin va connesso alla psu ma poi esce con i 2 classici 6+2 maschi alla vga :)
Un eventuale adattatore avrebbe le femmine.
esatto l'ho eliminato dopo aver lette bene ;)
ho visto che ci sono vari alimentatori che hanno un connettore da 12pin, magari questi possono essere già predisposti per un cavo 12/12 pin
https://i.imgur.com/4B0gGMl.jpg
comunque zero pensieri.... sicuramente sarà un nulla di fatto ... si dice che nVidia potrebbe ricercare questo approccio, perché a livello di marketing proporre una scheda reference con 2 cavi da 8 pin o addirittura tre cavi, potrebbe dare l'impressione di poco efficiente ed energivora .. la facessero come gli pare, basta che la fanno hahahah
TigerTank
18-07-2020, 18:15
O magari la presunta notizia di tale 12pin su scheda è partita proprio da qualcuno consapevole di tali connessioni a livello PSU :sofico:
fraussantin
18-07-2020, 18:26
A proposito di PIN e altro , come mai il cavo ad 8 PIN ha 2 negativi in piú? Che senso ha?
CutIMG]https://uploads.tapatalk-cdn.com/20200718/a1db7174e4e15c0c8cdcc749ea476e4a.jpg[/IMG]
Ho eliminato la foto, perchè mi sono reso conto che è un cavo che dai 12 pin collegati all'ali, deriva due cavi da 6+2pin per la VGA.... cavo proprietario dell'ali ;)
esatto l'ho eliminato dopo aver lette bene ;)
ho visto che ci sono vari alimentatori che hanno un connettore da 12pin, magari questi possono essere già predisposti per un cavo 12/12 pin
https://i.imgur.com/4B0gGMl.jpg
comunque zero pensieri.... sicuramente sarà un nulla di fatto ... si dice che nVidia potrebbe ricercare questo approccio, perché a livello di marketing proporre una scheda reference con 2 cavi da 8 pin o addirittura tre cavi, potrebbe dare l'impressione di poco efficiente ed energivora .. la facessero come gli pare, basta che la fanno hahahahQuello è un connettore proprietario della psu non credo centri proprio nulla con un cavo pcie da 12pin
Inviato dal mio ELE-L29 utilizzando Tapatalk
Thunder-74
18-07-2020, 19:09
Quello è un connettore proprietario della psu non credo centri proprio nulla con un cavo pcie da 12pin
Inviato dal mio ELE-L29 utilizzando Tapatalk
difatti è stato detto... dopo utilizzati tutti i dovuti condizionali, l'ipotesi era se la relativa marca poteva sfruttare quest'uscita per un cavo 12pin VGA senza il possibile cavo adattatore 2 in 1 che "dovrebbero" utilizzare tutti gli altri ... ma comunque era una domanda senza ricercare una risposta :)
A proposito di PIN e altro , come mai il cavo ad 8 PIN ha 2 negativi in piú? Che senso ha?
Ground sta per csgo a voltaggio 0 giusto , ma che é un polo perché parliamo di corrente continua ?mica alternata?https://uploads.tapatalk-cdn.com/20200718/a1db7174e4e15c0c8cdcc749ea476e4a.jpg in sostanza i due pin extra negativi sono usati per funzioni di controllo e regolazione della tensione in questo modo anche se la gpu assorbe una notevole quantità di potenza la psu può compensare per evitare che in altri componenti ci sia un abbonamento di tensione troppo elevato.
La mia spiegazione è semplificata se vuoi leggi qua
https://forums.anandtech.com/threads/whats-a-technically-valid-reason-for-pcie-8-pin-connector.73012/
Inviato dal mio ELE-L29 utilizzando Tapatalk
fraussantin
18-07-2020, 19:56
in sostanza i due pin extra negativi sono usati per funzioni di controllo e regolazione della tensione in questo modo anche se la gpu assorbe un notevole quantità di potenza la psu può compensare per evitare che altri componenti ci sia un abbonamento di tensione troppo elevato.
La mia spiegazione è semplificata se vuoi leggi qua
https://forums.anandtech.com/threads/whats-a-technically-valid-reason-for-pcie-8-pin-connector.73012/
Inviato dal mio ELE-L29 utilizzando TapatalkGrazie dopo me lo leggo
la migliore finora :sofico:
Concordo, meme bellissimo :D
DarkNiko
18-07-2020, 20:49
Grazie dopo me lo leggo
E comunque la corrente è alternata non è continua. :asd:
fraussantin
18-07-2020, 20:56
Mi stai perculando vero?
;)
la migliore finora :sofico:
Concordo, meme bellissimo :D
Grassie, grassie :D
DarkNiko
18-07-2020, 22:09
Mi stai perculando vero?
;)
In verità no, più che altro rispondevo al tuo post di sopra sul connettore in cui chiedevi:
"Ground sta per csgo a voltaggio 0 giusto , ma che é un polo perché parliamo di corrente continua ?mica alternata?"
Non ti stavo prendendo in giro, anzi a dire il vero non ho capito cosa volessi intendere.
mikael84
18-07-2020, 23:29
ho visto che ci sono vari alimentatori che hanno un connettore da 12pin, magari questi possono essere già predisposti per un cavo 12/12 pin
https://i.imgur.com/4B0gGMl.jpg
Che alimentatore è? :p
Seasonic, non ha nulla del genere, ed è il principale leader. Senza considerare che quest'ali non ha cavi normali?:sofico:
Black"SLI"jack
19-07-2020, 00:09
Invece è proprio un seasonic platinum, ma vecchio modello. Gli attuali Prime platinum sono diversi.
https://uploads.tapatalk-cdn.com/20200718/7f7b0fd5af7ecbeda5ab226bc94a0913.jpg
Ho fatto verificare da un amico che ha un vecchio 860w platinum, mentre io ho il prime 1300w platinum.
Inviato dal mio LYA-L09 utilizzando Tapatalk
mikael84
19-07-2020, 00:47
Invece è proprio un seasonic platinum, ma vecchio modello. Gli attuali Prime platinum sono diversi.
Ho fatto verificare da un amico che ha un vecchio 860w platinum, mentre io ho il prime 1300w platinum.
Si, l'ho trovato, ma è un'ali del 2011, con 6 cavi da 6 pin.
Solo un versione da 1000 tra l'altro.
Ho dovuto cercare tutte le review seasonic per trovarlo.
Invece è proprio un seasonic platinum, ma vecchio modello. Gli attuali Prime platinum sono diversi.
https://uploads.tapatalk-cdn.com/20200718/7f7b0fd5af7ecbeda5ab226bc94a0913.jpg
Ho fatto verificare da un amico che ha un vecchio 860w platinum, mentre io ho il prime 1300w platinum.
Inviato dal mio LYA-L09 utilizzando Tapatalk
il mio alimentatore!!:D :)
no come non detto...
A quanto pare non sarebbe solo per la TI...
Mha!
https://gamerant.com/nvidia-geforce-rtx-3080-ti-pins-connectors-design/
Inviato dal mio RNE-L21 utilizzando Tapatalk
fraussantin
19-07-2020, 10:12
La fonte é la stessa e di fatto é la solita news. Mi sono convinto anche io che sia un fakkerone gigante.
La prossima news sarà che Nvidia si é messa a produrre alimentatori G-POWER con connettore a 12 PIN brevettato ! :asd:
Andy1111
19-07-2020, 11:42
La fonte é la stessa e di fatto é la solita news. Mi sono convinto anche io che sia un fakkerone gigante.
La prossima news sarà che Nvidia si é messa a produrre alimentatori G-POWER con connettore a 12 PIN brevettato ! :asd:
Se è verde e firmato Nvidia perchè no?! :D :D
https://www.youtube.com/watch?v=9rOFlO1YPvo
maxmix65
19-07-2020, 22:30
Per Ampere A100 vi risulta questo??
MEMORY SIZE 40 GB HBM2 with ECC
MEMORY BUS WIDTH 5120-bit
MEMORY BANDWIDTH 1,6 TB/s
CUDA CORES 5120
PEAK DOUBLE-PRECISION
FLOATING POINT PERFORMANCE 9.7 Tflops (GPU Boost Clocks)
PEAK SINGLE PRECISION
FLOATING POINT PERFORMANCE 19.5 Tflops (GPU Boost Clocks)
PEAK HALF PRECISION 312Tflops (GPU Boost Clocks)
SYSTEM INTERFACE PCI Express 4.0 x16
MAX POWER CONSUMPTION 250 W
THERMAL SOLUTION passive Heatsink
FORM FACTOR 111,15 mm (H) x 267,7 mm (L) Dual Slot, Full Height
DISPLAY CONECTORS None
POWER CONNECTORS 8-pin CPU power connector
WEIGHT (W/O EXTENDER) 1196g* *not final values
PACKAGE CONTENT 1x Power adapter (2 x PCIe 8-pin to single CPU 8-pin)
https://i.postimg.cc/5jQLKzYv/dssfsfsf.jpg (https://postimg.cc/5jQLKzYv)
caccapupu91
19-07-2020, 23:17
Il nuovo connettore potrebbe andare a digitalizzare psu-gpu?
O un qualcosa simile ad un nuovo undervolt? Se serve solo a pompare watt, come pensano di raffreddare il mostro della TI? Prevedo throttling in ognidove D:!
Io ho preso un titanium a natale ._.
mircocatta
20-07-2020, 07:04
https://www.youtube.com/watch?v=qMMm9nHFe0Y&t=532s
da quel che ho capito, cooler confermato, alti consumi confermati (a stock oltre 300watt con frequenze stock, può andare anche a 2.2ghz ma con consumi veramente alti attorno ai 400w)
+40% in raster 4k
ovviamente si parla di leak, quindi da prendere con le pinze
Thunder-74
20-07-2020, 07:39
https://www.youtube.com/watch?v=qMMm9nHFe0Y&t=532s
da quel che ho capito, cooler confermato, alti consumi confermati (a stock oltre 300watt con frequenze stock, può andare anche a 2.2ghz ma con consumi veramente alti attorno ai 400w)
+40% in raster 4k
ovviamente si parla di leak, quindi da prendere con le pinze
se quello che dice è attendibile, sembra confermato anche il connettore da 12pin. Inoltre dovremmo aspettarci la top di RDNA2 che va il 50/60% più di una 2080ti e per tale motivo nVidia, sapendo questo, starebbe spingendo su consumi "folli" pur di mantenere la testa della corsa. Possibilità di togliere il limite al TDP come si fa in oc sulle CPU arrivando a consumi, come dicevi, sui 400w... Che poi è un po' quello che ha fatto intel con la 10th serie.
Se tutto si conferma, prevedo belle sudate vicino ai PC....
.... dimenticavo , vi aspetto nel thread del liquido :fagiano:
Ho eliminato la foto, perchè mi sono reso conto che è un cavo che dai 12 pin collegati all'ali, deriva due cavi da 6+2pin per la VGA.... cavo proprietario dell'ali ;)
esatto l'ho eliminato dopo aver lette bene ;)
ho visto che ci sono vari alimentatori che hanno un connettore da 12pin, magari questi possono essere già predisposti per un cavo 12/12 pin
https://i.imgur.com/4B0gGMl.jpg
comunque zero pensieri.... sicuramente sarà un nulla di fatto ... si dice che nVidia potrebbe ricercare questo approccio, perché a livello di marketing proporre una scheda reference con 2 cavi da 8 pin o addirittura tre cavi, potrebbe dare l'impressione di poco efficiente ed energivora .. la facessero come gli pare, basta che la fanno hahahah
purtroppo il cavo in dotazione 12p è disponibile solo in configurazione 4+4 per mb all altra estremità.
Si, l'ho trovato, ma è un'ali del 2011, con 6 cavi da 6 pin.
Solo un versione da 1000 tra l'altro.
Ho dovuto cercare tutte le review seasonic per trovarlo.
burlone sempre voglia di scherzare :)
è il mio dal 2014 mai una rogna. tira come un cavallo.
1kw serie P il top di sea.
Fecero anche 1,2kw sempre platinum.
Progetto storico dal quale è nata la serie prime di seasonic.
Un affinamento per salire leggermente in efficienza con l ultima 80p titanium.
Altro che vecchio, quell uscita 12pin sarebbe ideale per le vga peccato non diano in bundle un cavo 12-12 ma solo 12-8.
Sarebbe la volta buona per fa viaggiare tanta corrente su un solo cavo al posto dei 3x1 attuali
mircocatta
20-07-2020, 09:44
se quello che dice è attendibile, sembra confermato anche il connettore da 12pin. Inoltre dovremmo aspettarci la top di RDNA2 che va il 50/60% più di una 2080ti e per tale motivo nVidia, sapendo questo, starebbe spingendo su consumi "folli" pur di mantenere la testa della corsa. Possibilità di togliere il limite al TDP come si fa in oc sulle CPU arrivando a consumi, come dicevi, sui 400w... Che poi è un po' quello che ha fatto intel con la 10th serie.
Se tutto si conferma, prevedo belle sudate vicino ai PC....
.... dimenticavo , vi aspetto nel thread del liquido
Se AMD non risolve i problemi driver sarà dura scegliere :fagiano: :fagiano:
Se AMD non risolve i problemi driver sarà dura scegliere :fagiano: :fagiano:
aaaaaaah un evergreen :asd:
mattxx88
20-07-2020, 10:09
aaaaaaah un everred :asd:
fixed :stordita: :fagiano:
devAngnew
20-07-2020, 10:29
se quello che dice è attendibile, sembra confermato anche il connettore da 12pin. Inoltre dovremmo aspettarci la top di RDNA2 che va il 50/60% più di una 2080ti e per tale motivo nVidia, sapendo questo, starebbe spingendo su consumi "folli" pur di mantenere la testa della corsa. Possibilità di togliere il limite al TDP come si fa in oc sulle CPU arrivando a consumi, come dicevi, sui 400w... Che poi è un po' quello che ha fatto intel con la 10th serie.
Se tutto si conferma, prevedo belle sudate vicino ai PC....
.... dimenticavo , vi aspetto nel thread del liquido :fagiano:
Ma non potrebbe essere che gli ES usino questo connettore particolare da 12 pin ? :fagiano:
fixed :stordita: :fagiano:
https://media3.giphy.com/media/2fXvNjhnat6yk/200.gif
TigerTank
20-07-2020, 10:43
se quello che dice è attendibile, sembra confermato anche il connettore da 12pin. Inoltre dovremmo aspettarci la top di RDNA2 che va il 50/60% più di una 2080ti e per tale motivo nVidia, sapendo questo, starebbe spingendo su consumi "folli" pur di mantenere la testa della corsa. Possibilità di togliere il limite al TDP come si fa in oc sulle CPU arrivando a consumi, come dicevi, sui 400w... Che poi è un po' quello che ha fatto intel con la 10th serie.
Se tutto si conferma, prevedo belle sudate vicino ai PC....
.... dimenticavo , vi aspetto nel thread del liquido :fagiano:
Che poi è roba che serve solo agli overclockers di un certo livello perchè per giocare/lavorare basta una situazione tranquilla e che non sia ne un fornelletto da campeggio ne un salasso energetico immotivato :)
Thunder-74
20-07-2020, 11:18
Che poi è roba che serve solo agli overclockers di un certo livello perchè per giocare/lavorare basta una situazione tranquilla e che non sia ne un fornelletto da campeggio ne un salasso energetico immotivato :)
a cosa ti riferisci Tiger? al TDP?
Perchè sinceramente sulle CPU fa tanta differenza. Ad esempio se prendi il 10900 non K che ha un TDP da 65w, diventa assurdo senza limite.. +40% in operazioni di rendering senza fare ulteriore OC....
Ti lascio una rece in merito dove appunto sottolineano questo aspetto ;)
LINK (https://www.techpowerup.com/review/intel-core-i9-10900/)
TigerTank
20-07-2020, 11:26
a cosa ti riferisci Tiger? al TDP?
Perchè sinceramente sulle CPU fa tanta differenza. Ad esempio se prendi il 10900 non K che ha un TDP da 65w, diventa assurdo senza limite.. +40% in operazioni di rendering senza fare ulteriore OC....
Ti lascio una rece in merito dove appunto sottolineano questo aspetto ;)
LINK (https://www.techpowerup.com/review/intel-core-i9-10900/)
Sì quella questione sui processori cappati è praticamente comica :asd:
Mi riverivo alle vga...nel senso che mi auguro non siano tirate all'eccesso(e di conseguenza molto calorose) per poi essere comunque vincolate da un sistema di tagli da temperatura ancora più restrittivo di quelli attuali.
Ok si può liquidare ma sinceramente tra costi della vga e costi in aumento dei fullcover...imho troppo salasso se il liquido diventasse quasi un obbligo per potersi godere una vga :)
mikael84
20-07-2020, 11:33
Per Ampere A100 vi risulta questo??
MEMORY SIZE 40 GB HBM2 with ECC
MEMORY BUS WIDTH 5120-bit
MEMORY BANDWIDTH 1,6 TB/s
CUDA CORES 5120
PEAK DOUBLE-PRECISION
FLOATING POINT PERFORMANCE 9.7 Tflops (GPU Boost Clocks)
PEAK SINGLE PRECISION
FLOATING POINT PERFORMANCE 19.5 Tflops (GPU Boost Clocks)
PEAK HALF PRECISION 312Tflops (GPU Boost Clocks)
SYSTEM INTERFACE PCI Express 4.0 x16
MAX POWER CONSUMPTION 250 W
THERMAL SOLUTION passive Heatsink
FORM FACTOR 111,15 mm (H) x 267,7 mm (L) Dual Slot, Full Height
DISPLAY CONECTORS None
POWER CONNECTORS 8-pin CPU power connector
WEIGHT (W/O EXTENDER) 1196g* *not final values
PACKAGE CONTENT 1x Power adapter (2 x PCIe 8-pin to single CPU 8-pin)
https://i.postimg.cc/5jQLKzYv/dssfsfsf.jpg (https://postimg.cc/5jQLKzYv)
E' la versione HPC ex tesla, non gaming. I cuda cmq sono sbagliati.:)
https://www.youtube.com/watch?v=qMMm9nHFe0Y&t=532s
da quel che ho capito, cooler confermato, alti consumi confermati (a stock oltre 300watt con frequenze stock, può andare anche a 2.2ghz ma con consumi veramente alti attorno ai 400w)
+40% in raster 4k
ovviamente si parla di leak, quindi da prendere con le pinze
Quello youtuber può andare a zelig.
Sono fake assurdi.
Stiamo parlando di questo:
https://i.postimg.cc/kMcyTN0P/fake.png
se quello che dice è attendibile, sembra confermato anche il connettore da 12pin. Inoltre dovremmo aspettarci la top di RDNA2 che va il 50/60% più di una 2080ti e per tale motivo nVidia, sapendo questo, starebbe spingendo su consumi "folli" pur di mantenere la testa della corsa. Possibilità di togliere il limite al TDP come si fa in oc sulle CPU arrivando a consumi, come dicevi, sui 400w... Che poi è un po' quello che ha fatto intel con la 10th serie.
Se tutto si conferma, prevedo belle sudate vicino ai PC....
.... dimenticavo , vi aspetto nel thread del liquido :fagiano:
Tra un pò navi arriverà al 80/100%, ed nvidia fa uscire hopper per pareggiarla:sofico:
Quello youtuber ha capito come fare soldi sul tubo.
Qualche mese fa aveva sparato le percentuali dei giochi (solo a progetto finito quello), sbagliando tutti i rapporti, ora si è inventato altri dati.
Lo stesso fa per nvidia.:)
purtroppo il cavo in dotazione 12p è disponibile solo in configurazione 4+4 per mb all altra estremità.
burlone sempre voglia di scherzare :)
è il mio dal 2014 mai una rogna. tira come un cavallo.
1kw serie P il top di sea.
Fecero anche 1,2kw sempre platinum.
Progetto storico dal quale è nata la serie prime di seasonic.
Un affinamento per salire leggermente in efficienza con l ultima 80p titanium.
Altro che vecchio, quell uscita 12pin sarebbe ideale per le vga peccato non diano in bundle un cavo 12-12 ma solo 12-8.
Sarebbe la volta buona per fa viaggiare tanta corrente su un solo cavo al posto dei 3x1 attuali
Recensito però nel 2011, gran bell'ali, su questo non ci piove.:)
Il 1200, è del 2014, ottimo ali, però, come uscite cavi, diverso, e simile agli altri.
Il 1000, aveva questa particolarità.:)
OrazioOC
20-07-2020, 12:08
Quello youtuber può andare a zelig.
Sono fake assurdi.
Stiamo parlando di questo:
https://i.postimg.cc/kMcyTN0P/fake.png
Ed è in buona compagnia, abortedtv, red gaming qualcosa e coreteks, tutta gente che campa di clickbait che ha come fonte ammiocuggino. :asd:
Thunder-74
20-07-2020, 12:17
Sì quella questione sui processori cappati è praticamente comica :asd:
Mi riverivo alle vga...nel senso che mi auguro non siano tirate all'eccesso(e di conseguenza molto calorose) per poi essere comunque vincolate da un sistema di tagli da temperatura ancora più restrittivo di quelli attuali.
Ok si può liquidare ma sinceramente tra costi della vga e costi in aumento dei fullcover...imho troppo salasso se il liquido diventasse quasi un obbligo per potersi godere una vga :)
Dai, che tu saresti a metà strada ;)
E' la versione HPC ex tesla, non gaming. I cuda cmq sono sbagliati.:)
Quello youtuber può andare a zelig.
Sono fake assurdi.
Cut...
Tra un pò navi arriverà al 80/100%, ed nvidia fa uscire hopper per pareggiarla:sofico:
Quello youtuber ha capito come fare soldi sul tubo.
Qualche mese fa aveva sparato le percentuali dei giochi (solo a progetto finito quello), sbagliando tutti i rapporti, ora si è inventato altri dati.
Lo stesso fa per nvidia.:)
Cut
Sinceramente non lo conoscevo , ma difatti spara con troppa semplicità certe affermazioni ....
Ormai se ne sentiranno di ogni fino alla loro presentazione.
Anche se mi piacerebbe che AMD potesse tirar fuori qualcosa di potente ...
Inviato dal mio iPad utilizzando Tapatalk
TigerTank
20-07-2020, 13:00
Dai, che tu saresti a metà strada ;)
Vedremo la situazione, inscimmiatore seriale :ciapet:
maxmix65
20-07-2020, 13:01
[QUOTE=mikael84;46888289]E' la versione HPC ex tesla, non gaming. I cuda cmq sono sbagliati.:)
@mikael84
Strano e' riportato sulla pagina della Pny e' uscita in vendita ieri
DarkNiko
20-07-2020, 13:13
[QUOTE=mikael84;46888289]E' la versione HPC ex tesla, non gaming. I cuda cmq sono sbagliati.:)
@mikael84
Strano e' riportato sulla pagina della Pny e' uscita in vendita ieri
GA100 dovrebbe avere 8192 cuda cores.
Full Ampere GA100 GPU specifications:
GA100 GPU built on a 7nm manufacturing process
54-billion transistors
8192 CUDA cores
128 SMs (64 CUDA cores per SM)
Tensor cores: 512 (4 tensor cores per SM)
Third Generation Tensor Core (TensorFloat-32 TF32 Tensor Core)
New Bfloat16 (BF16)/FP32 mixed-precision Tensor Core operations
FP32 performance: 23 TFLOPS
FP64 performance: 11.5 TFLOPS (FP64 = 1/2 * FP32)
Memory: 48GB HBM2 – memory bus width: 6144-bit (6 HBM2 stacks, 12 512-bit memory controllers)
CUDA Compute Capability: 8.0
Ale55andr0
20-07-2020, 14:10
https://www.tweaktown.com/news/72399/nvidia-ampere-rumor-nvcache-speeds-up-load-times-optimize-vram-usage/index.html
majinbu7
20-07-2020, 14:16
aaaaaaah un evergreen :asd:
Beh dio , devi ammettere che con Rdna tra black screen, crush ecc... ancora non del tutto risolti, di problemi ce ne sono eccome.
mircocatta
20-07-2020, 14:21
aaaaaaah un evergreen :asd:
io ho sempre simpatizzato per il lavoro di amd, però bisogna ammettere che qualche problemuccio l'ha e lo sta ancora dando, questo non toglie che se sarà più conveniente prima proverò con mano una rdna2 :)
mikael84
20-07-2020, 14:30
Ed è in buona compagnia, abortedtv, red gaming qualcosa e coreteks, tutta gente che campa di clickbait che ha come fonte ammiocuggino. :asd:
Allucinante, e sta crescendo in maniera esponenziale.
Inoltre mi piace come calcolano le percentuali:
2080ti a 1545=13,4tf, navi circa 20tf + 50% prestazioni.
Parliamo di persone che da oltre 8 anni ancora non conoscono nvidia.
Senza considerare che le percentuali in flops sono relative, la 2080ti passa la 2080s del 30% flops, rop's, BW, eppure a stento prende un 15/20% a def 15,2tf circa.
Sinceramente non lo conoscevo , ma difatti spara con troppa semplicità certe affermazioni ....
Ormai se ne sentiranno di ogni fino alla loro presentazione.
E'una macchina di fake, che non conosce neppure i rapporti base.:)
Anche se mi piacerebbe che AMD potesse tirar fuori qualcosa di potente ...
Inviato dal mio iPad utilizzando Tapatalk
Beh, considerando che AMD ha un netto vantaggio nodo, può senz'altro fare bene.:)
E' la versione HPC ex tesla, non gaming. I cuda cmq sono sbagliati.:)
@mikael84
Strano e' riportato sulla pagina della Pny e' uscita in vendita ieri
Si cmq è il chip HPC, quello presentato 2 mesi fa, nulla a che vedere con il chip gaming.:)
OrazioOC
20-07-2020, 14:44
Allucinante, e sta crescendo in maniera esponenziale.
Inoltre mi piace come calcolano le percentuali:
2080ti a 1545=13,4tf, navi circa 20tf + 50% prestazioni.
Parliamo di persone che da oltre 8 anni ancora non conoscono nvidia.
Questa brutta moda di dar voce anche a questi ciarlatani parte dai rispettivi subreddit intel, amd e nvidia, dove la gente oltre che credere più o meno a tutto senza documentarsi può anche upvotarli e far crescere la loro audience. :rolleyes:
Comunque anche i produttori sono complici, con i loro silenzi continui e con le loro tempistiche discutibili, nvidia sappiamo che a relativamente breve dovrà buttar fuori ampere anche lato desktop oltre che pro, però al momento è zitta zitta e non vuole neanche esporsi per un'eventuale data di presentazione.
Tanto chi voleva una rtx 2000 ha avuto 2 anni per prendersela, o butti fuori qualcosa di nuovo o non fai chissà quali vendite lato desktop.
Idem Amd, esce sempre con un vistoso ritardo e la gamma non è mai completa, o quando lo è porta i soliti rebrand(chip che si porta dietro per 4/5 anni, ancora vendono le rx polaris :asd:) oppure ha qualche problema qui e li tra reperibilità, drivers o performance in certi ambiti.:rolleyes: :rolleyes:
A quanto pare il DLSS 3.0 potrebbe essere usato nei giochi con supporto al TAA. Sarebbe un colpaccio.
https://www.tweaktown.com/news/73883/nvidias-next-gen-ampere-dlss-3-0-could-work-on-any-game-that-uses-taa/index.html
razor820
20-07-2020, 14:56
Ci hanno preso gusto con il dls. Speriamo che sostituisca tutta quella spazzatura dei filtri taa e company. Msa L unico decente risulta di grande impatto prestazionale..
Comunque a mio parere tornando alla faida amd nvidia, escludendo la componentistica, non c è paragone con il pannello nvidia.
Tante implementazioni e feature interessanti. Non stiamo qui ad elencarli.
Il pannello di controllo Amd? L anno scorso lo provai. L unica cosa buona di quell impasto resta il freesync. Anzi restava, visto che era un vantaggio prettamente economico rispetto ai costosi monitor g sync. Ma ormai nvidia supporta la maggior parte dei monitor freesync. Anche se io rimango sempre fedele al modulo originale g sync
mikael84
20-07-2020, 15:03
https://www.tweaktown.com/news/72399/nvidia-ampere-rumor-nvcache-speeds-up-load-times-optimize-vram-usage/index.html
(New) NVIDIA Ampere GA100 Specs
8192 CUDA cores @ 1750MHz boost
1024 Tensor Cores
256 RT Cores
Unknown amount of GDDR6 @ 16Gbps
Unknown TDP
7nm
Ma allora lo fatte apposta.:asd:
RT core e gddr6 nel chip HPC? Come può pensarlo uno appena capace?
Cmq per la sorta di HBCC, se ne era parlato già in canali ben più seri, potrebbe anche essere vero, in quanto la ram, senza doppia densità scarseggia.
Questa brutta moda di dar voce anche a questi ciarlatani parte dai rispettivi subreddit intel, amd e nvidia, dove la gente oltre che credere più o meno a tutto senza documentarsi può anche upvotarli e far crescere la loro audience. :rolleyes:
Comunque anche i produttori sono complici, con i loro silenzi continui e con le loro tempistiche discutibili, nvidia sappiamo che a relativamente breve dovrà buttar fuori ampere anche lato desktop oltre che pro, però al momento è zitta zitta e non vuole neanche esporsi per un'eventuale data di presentazione.
Tanto chi voleva una rtx 2000 ha avuto 2 anni per prendersela, o butti fuori qualcosa di nuovo o non fai chissà quali vendite lato desktop.
Idem Amd, esce sempre con un vistoso ritardo e la gamma non è mai completa, o quando lo è porta i soliti rebrand(chip che si porta dietro per 4/5 anni, ancora vendono le rx polaris :asd:) oppure ha qualche problema qui e li tra reperibilità, drivers o performance in certi ambiti.:rolleyes: :rolleyes:
Non li giudico alla fine, inventano le news, e fanno il giro su tutti i siti. Il loro obbiettivo è raggiunto.
Per fortuna che le riviste serie (almeno non tutte) vanno appresso a questi.
Se prendiamo tweaktown, è stato capace di riportare gli RT core 2x di una Tesla, e gddr6.
Senza considerare, dove lo mettono il secondo RT... al massimo raddoppi il ratio o dimezzi gli SM e li rendi indipendenti.
1 TPC 4 sm.
Riguardo a ciò che sembra davvero essere realtà, è il PP. Una vera delusione.
Quasi 3 gen, senza un vero salto, quel PP andava bene per turing.:rolleyes:
OrazioOC
20-07-2020, 15:15
Non li giudico alla fine, inventano le news, e fanno il giro su tutti i siti. Il loro obbiettivo è raggiunto.
Per fortuna che le riviste serie (almeno non tutte) vanno appresso a questi.
Se prendiamo tweaktown, è stato capace di riportare gli RT core 2x di una Tesla, e gddr6.
Senza considerare, dove lo mettono il secondo RT... al massimo raddoppi il ratio o dimezzi gli SM e li rendi indipendenti.
1 TPC 4 sm.
Riguardo a ciò che sembra davvero essere realtà, è il PP. Una vera delusione.
Quasi 3 gen, senza un vero salto, quel PP andava bene per turing.:rolleyes:
Ma infatti almeno un videocardz, un guru3d, un techpowerup non ti fanno articoli partendo da questa paccottiglia di leak privi di un qualsiasi straccio di attendibilità.:rolleyes:
Ampere sarà quello che sarà, si sà che sarà una specie di shrink di turing e via andare, e a seconda degli ambiti potrebbe essere un ottimo upgrade anche per i possessori delle rtx 2000.
Thunder-74
20-07-2020, 15:27
Comunque veramente il video del tizio ha fatto scatenare tutti i siti con i suoi presunti "leak".
Boh.... però permettetemi di dire che questa volta Wccftech non ha ceduto nel riportare tali "leak"... perlomeno fino ad ora :fagiano:
mikael84
20-07-2020, 15:37
Ma infatti almeno un videocardz, un guru3d, un techpowerup non ti fanno articoli partendo da questa paccottiglia di leak privi di un qualsiasi straccio di attendibilità.:rolleyes:
Ampere sarà quello che sarà, si sà che sarà una specie di shrink di turing e via andare, e a seconda degli ambiti potrebbe essere un ottimo upgrade anche per i possessori delle rtx 2000.
Su questo si, inoltre, dobbiamo concepirla come una sorta di passaggio al RT.
Di certo sul PP di AMD, poteva essere devastante anche in raster.
Comunque veramente il video del tizio ha fatto scatenare tutti i siti con i suoi presunti "leak".
Boh.... però permettetemi di dire che questa volta Wccftech non ha ceduto nel riportare tali "leak"... perlomeno fino ad ora :fagiano:
Ecco, figuriamoci il livello.:p
OrazioOC
20-07-2020, 16:20
Comunque veramente il video del tizio ha fatto scatenare tutti i siti con i suoi presunti "leak".
Boh.... però permettetemi di dire che questa volta Wccftech non ha ceduto nel riportare tali "leak"... perlomeno fino ad ora :fagiano:
Perché il periodo è piatto e anche loro per portare visual devono pubblicare qualcosa, ma non è mica detto che quello che pubblicano debba essere preso come verità assoluta.
devil_mcry
20-07-2020, 16:43
Ma perché questo PP non vi piace?
mikael84
20-07-2020, 18:13
Ma perché questo PP non vi piace?
Beh se pensi che con circa lo stesso clock, sui 7nm, nvidia è riuscita ad infilare il 52% in più di cuda, aggiungere 2 stack HBM, 64 rop's per collegamento (192 totali), 8 volte la l2, il 66% della l1/cache registri, raddoppiare nvlink, tensor mostruosi etc.
Per rese, è stato tagliuzzato, però rimane sempre mostruoso.
Con turing dove non c'è stato un salto, hanno compensato con modifiche micro architetturali e padelloni.
Ora ci ritroviamo con un mini salto, dove a livello di cuda, hanno solo aggiunto un GPC e neppure collegato, chip abbastanza grandi, e samsung come da sua tradizione, necessità di tensioni più elevate per salire.;)
Ma perché questo PP non vi piace?
Perchè ha praticamente la metà della densità rispetto al 7N+ EUV di TSMC. È un full node di differenza, tantissimo.
Se invece si limiteranno al 7N, avranno comunque oltre il 60% di vantaggio.
Il DLSS 2 è già ottimo.
Il pannello di controllo Amd? L anno scorso lo provai. L unica cosa buona di quell impasto resta il freesync. Anzi restava, visto che era un vantaggio prettamente economico rispetto ai costosi monitor g sync. Ma ormai nvidia supporta la maggior parte dei monitor freesync. Anche se io rimango sempre fedele al modulo originale g sync
QFT
Thunder-74
20-07-2020, 19:31
Beh se pensi che con circa lo stesso clock, sui 7nm, nvidia è riuscita ad infilare il 52% in più di cuda, aggiungere 2 stack HBM, 64 rop's per collegamento (192 totali), 8 volte la l2, il 66% della l1/cache registri, raddoppiare nvlink, tensor mostruosi etc.
Per rese, è stato tagliuzzato, però rimane sempre mostruoso.
Con turing dove non c'è stato un salto, hanno compensato con modifiche micro architetturali e padelloni.
Ora ci ritroviamo con un mini salto, dove a livello di cuda, hanno solo aggiunto un GPC e neppure collegato, chip abbastanza grandi, e samsung come da sua tradizione, necessità di tensioni più elevate per salire.;)
secondo te è possibile un shrink a 7nm di Ampere fra un annetto, magari con le ipotetiche versioni Super?
mircocatta
20-07-2020, 19:48
Ci hanno preso gusto con il dls. Speriamo che sostituisca tutta quella spazzatura dei filtri taa e company. Msa L unico decente risulta di grande impatto prestazionale..
Comunque a mio parere tornando alla faida amd nvidia, escludendo la componentistica, non c è paragone con il pannello nvidia.
Tante implementazioni e feature interessanti. Non stiamo qui ad elencarli.
a me il pannello nvidia ha sempre fatto cacare a spruzzo, lento come la morte, sempre con l'intervallo dinamico ristretto da default, ad inizio 2020 ancora senza un fps limiter che finalmente si sono decisi a implementare, idem per l'image sharpening, inserito giusto per "copiare" amd che l'ha implementato mesi prima
per non parlare della totale assenza della gestione overclock, dove si è costretti ad usare sempre programmini di terze parti (mentre per amd se non ho capito male è tutto nel pannello)
graficamente poi....uuuuhhh, tanto brutto quanto pesante
questa è la mia personale esperienza, ma rimango incuriosito da quale siano queste infinite opzioni presenti nel pannello nvidia che mi sono perso :confused:
secondo te è possibile un shrink a 7nm di Ampere fra un annetto, magari con le ipotetiche versioni Super?
se non sbaglio lo ipotizzava mr fake nel video che ho postato stamattina, quindi per coerenza immagino che la risposta sia "no"
razor820
20-07-2020, 19:55
Dls? Ultra latenza? Il miglior codec per catturare i video durante i giochi, ovvero shadow player? Anche se fa parte del pacchetto nvidia experience.
No parliamo da fan amd.
Pannello nvidia lento??
Amd è una confusione totale per cercare le uniche opzioni che servono realmente durante una sessione gaming
fraussantin
20-07-2020, 20:00
Il pannello Nvidia è lento se si hanno tante applicazioni installate.
Per il resto è chiaro preciso e ha tutto quel che serve, in maniera ordinata, dove serve. Quello amd , per il poco che l'ho usato , è molto confusionario troppe cose nascoste che per trovarle servono svariati click.
Però è figo come interfaccia.
Cmq immagino che usandolo frequentemente si trovi tutto presto.
Riguardo il dlss mi chiedevo anche io se aumentasse la latenza.
PS ho dovuto togliere l'overlay Nvidia perchè cozzava con il controller PS4. Per fortuna hanno incluso lo sharpening nel driver
mircocatta
20-07-2020, 20:03
Dls? Ultra latenza? Il miglior codec per catturare i video durante i giochi, ovvero shadow player? Anche se fa parte del pacchetto nvidia experience.
No parliamo da fan amd.
Pannello nvidia lento??
Amd è una confusione totale per cercare le uniche opzioni che servono realmente durante una sessione gaming
ci sono anche in casa amd eh :stordita:anzi, per il secondo vale quanto detto per l'image sharpening se non ricordo male
il nuovo e roboante pannello amd (che tanti problemini imho sta causando) sinceramente non l'ho provato, ma personalmente quello nvidia non mi ha mai fatto strappare i capelli :stordita:
ah, e grazie di aver citato l'nvidia experience, di cui il 90% di utenti non lo installa :asd:
razor820
20-07-2020, 20:21
Non lo installo nemmeno io.. ma come fai a catturare i video e postarli con il minimo impatto sulle risorse??
Comunque lasciamo perdere. Non so se hanno fatto miracoli da agosto 2019 ad ora, ma la mia ultima scheda amd è durata un mese. Sia per il pannello odioso, che penso non sia L unico a pensarlo, sia che con quel falso g-sync non mi ci trovavo completamente
Andy1111
20-07-2020, 21:03
Dls? Ultra latenza? Il miglior codec per catturare i video durante i giochi, ovvero shadow player? Anche se fa parte del pacchetto nvidia experience.
No parliamo da fan amd.
Pannello nvidia lento??
Amd è una confusione totale per cercare le uniche opzioni che servono realmente durante una sessione gaming
Spero che stai scherzando!!!
Il pannello Nvidia è lento se si hanno tante applicazioni installate.
Per il resto è chiaro preciso e ha tutto quel che serve, in maniera ordinata, dove serve. Quello amd , per il poco che l'ho usato , è molto confusionario troppe cose nascoste che per trovarle servono svariati click.
Però è figo come interfaccia.
Cmq immagino che usandolo frequentemente si trovi tutto presto.
Riguardo il dlss mi chiedevo anche io se aumentasse la latenza.
PS ho dovuto togliere l'overlay Nvidia perchè cozzava con il controller PS4. Per fortuna hanno incluso lo sharpening nel driver
Forse perchè non sei abituato, come tutte le novità.
ci sono anche in casa amd eh :stordita:anzi, per il secondo vale quanto detto per l'image sharpening se non ricordo male
il nuovo e roboante pannello amd (che tanti problemini imho sta causando) sinceramente non l'ho provato, ma personalmente quello nvidia non mi ha mai fatto strappare i capelli :stordita:
ah, e grazie di aver citato l'nvidia experience, di cui il 90% di utenti non lo installa :asd:
Che devo dire io sono sempre il miracolato! capita qualche driver ..... ma capita anche su nvidia o sbaglio? Per il resto fa più casini windows che i driver per me.
Guarda che mi sono ritrovato ieri su windows update, e stai sicuro non li metto
https://i.postimg.cc/qtGnk7jx/windowsupdate.jpg (https://postimg.cc/qtGnk7jx)
Non lo installo nemmeno io.. ma come fai a catturare i video e postarli con il minimo impatto sulle risorse??
Comunque lasciamo perdere. Non so se hanno fatto miracoli da agosto 2019 ad ora, ma la mia ultima scheda amd è durata un mese. Sia per il pannello odioso, che penso non sia L unico a pensarlo, sia che con quel falso g-sync non mi ci trovavo completamente
Ripeto la novità spiazza sempre all'inizio, miracoli no dai ma non ci si lamenta .... mircocatta ha usato quel falso g-sync per un bel po con la sua 1080TI chiedi a lui se faceva schifo come dici tu?! Ed è lo stesso monitor che uso io :D
Video fresco fresco del pannello AMD fatto da me con radeon relive buona visione. :D
https://www.youtube.com/watch?v=qkTD7vR_Fb0&feature=youtu.be
C'è fino alla risoluzione 4k appena il tubo la eleabora
mikael84
20-07-2020, 23:09
secondo te è possibile un shrink a 7nm di Ampere fra un annetto, magari con le ipotetiche versioni Super?
Assolutamente no:)
L'obbiettivo è hopper.
Considerando le rese pessime, non è escluso, che nvidia riadatti il chip A100 via hopper H100.
Le super cmq, non sono un refresh annuale, ma una situazione, dovuta sopratutto ai padelloni con rese pessime, e dalla concorrenza.
Ad esempio la 1070ti, fu una conseguenza della vega56:)
Riguardo il dlss mi chiedevo anche io se aumentasse la latenza.
L'utilizzo dei tensor qualcosa te la fa pagare, ma è totalmente impercettibile. :)
Thunder-74
21-07-2020, 07:24
Assolutamente no:)
L'obbiettivo è hopper.
Considerando le rese pessime, non è escluso, che nvidia riadatti il chip A100 via hopper H100.
Le super cmq, non sono un refresh annuale, ma una situazione, dovuta sopratutto ai padelloni con rese pessime, e dalla concorrenza.
Ad esempio la 1070ti, fu una conseguenza della vega56:)
L'utilizzo dei tensor qualcosa te la fa pagare, ma è totalmente impercettibile. :)
In passato però ricordo che fu fatto con la GTX260, uscita a 65nm con 192 cuda e poi riproposta a 55nm con 216 cuda... (di quest'ultima ne ho ancora una funzionante in un pc di mio fratello... non gioca ovviamente..)
Altra ipotesi che si era paventata in maggio, era quella dell'adozione dei 7nm per la fascia alta e gli 8nm Samsung per la fascia bassa, ma questo sembra ormai sfumato...
Comunque, alla luce del fatto che gli accordi con TMSC siano sfumati per Ampere Consumer e che AMD difatti si troverà su un PP più efficiente, ci sta che nVidia stia cercando di colmare questo gap innalzando il TDP.
Predator_1982
21-07-2020, 08:42
A proposito della possibile adozione di un "Trasversal Coprocessor" sulle top di gamma Ampere, si sa qualcosa in più in merito? E' notizia fondata o solo un'altro fake?
per quanto sia d accordo con i colleghi scettici dell 8, il mio augurio ad ampere è piu tosto semplice
-forte in 4k nuove uscite
-fortissimo con titoli datati 4k tr,c3..
-nvpanel piu velece e piu smart
-prezzo umano non alla fantozzi
in particolare è cosa di questi giorni -non so se ridere per avere risolto o piangere per gli anni passati a non usarlo- nel confusionario pannello verde ho adottato una nuova combo da testare sul nuovo pannello : lowlat on+veloce
ebbene ottenuta la sincronizzazione perfetta abbinata al hdr game mode del tv
superiore alla vertical.
Sarebbe cosa gradita un dialogo migliore tra vga e schermo ai fini di una possibilissima top sincro anche in assenza di g/free
In passato però ricordo che fu fatto con la GTX260, uscita a 65nm con 192 cuda e poi riproposta a 55nm con 216 cuda... (di quest'ultima ne ho ancora una funzionante in un pc di mio fratello... non gioca ovviamente..)
Altra ipotesi che si era paventata in maggio, era quella dell'adozione dei 7nm per la fascia alta e gli 8nm Samsung per la fascia bassa, ma questo sembra ormai sfumato...
Comunque, alla luce del fatto che gli accordi con TMSC siano sfumati per Ampere Consumer e che AMD difatti si troverà su un PP più efficiente, ci sta che nVidia stia cercando di colmare questo gap innalzando il TDP.
In realtà la 260 in origine era 192sp a 65nm poi fu proposta dopo 2 mesi la versione 216sp 65nm in risposta alle ATI 4870 e solo con l'uscita della GTX 275 e 285 usci la versione 55nm in risposta alla 4890.
Ma nel 2020 non ha molto senso rifare lo stesso chip senza apportare migliorie, sopratutto se non hai fab proprie.
Crysis90
21-07-2020, 09:47
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-20-faster-than-rtx-2080-ti/
Se fosse vero, allora AMPERE sta a PASCAL come TURING sta a MAXWELL.
Nel senso che il salto di nodo anche in questo caso favorisce il boost prestazionale grazie alle frequenze più pompate.
OrazioOC
21-07-2020, 10:00
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-20-faster-than-rtx-2080-ti/
Se fosse vero, allora AMPERE sta a PASCAL come TURING sta a MAXWELL.
Nel senso che il salto di nodo anche in questo caso favorisce il boost prestazionale grazie alle frequenze più pompate.
Lecito aspettarsi lo stesso distacco che c'era tra la 980 ti e la 1080, inoltre questa 3080 è forte del fatto che è un cut di un chip molto corposo come GA102, non è un chip medio molto tirato come potrebbe essere GA104.
A questo punto mi aspetto una 3070 nei paraggi della 2080 ti almeno reference.
Thunder-74
21-07-2020, 10:03
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-20-faster-than-rtx-2080-ti/
Se fosse vero, allora AMPERE sta a PASCAL come TURING sta a MAXWELL.
Nel senso che il salto di nodo anche in questo caso favorisce il boost prestazionale grazie alle frequenze più pompate.
Ma magari fosse....
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-20-faster-than-rtx-2080-ti/
Se fosse vero, allora AMPERE sta a PASCAL come TURING sta a MAXWELL.
Nel senso che il salto di nodo anche in questo caso favorisce il boost prestazionale grazie alle frequenze più pompate.
Penso che tutto dipenderà esclusivamente dai clock, come specifiche 3080 e 3080ti hanno differenze simili a Kepler con 780 e 780ti, con una leggera perdita data dal bus a 320bit.
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-20-faster-than-rtx-2080-ti/
Se fosse vero, allora AMPERE sta a PASCAL come TURING sta a MAXWELL.
Nel senso che il salto di nodo anche in questo caso favorisce il boost prestazionale grazie alle frequenze più pompate.
analisi interessante wccftech.
Conferma quello che penso dal lancio di gp102 volutamente tarpato e colpevole di eccesso di performace.
Si stava gia prendendo una brutta piega con le 980ti -a saperlo prima le avrebbero fatte uscire con 5gb e 352bit-
la nuova è stata gia un prodigio da +35 non ostante l accanimento ingiustificato su bus e vram
Crysis90
21-07-2020, 11:15
Ma magari fosse....
Scordiamoci 2 cose allora:
- prezzi bassi :doh:
- concorrenza di AMD :asd: :mc:
Andy1111
21-07-2020, 11:27
Scordiamoci 2 cose allora:
- prezzi bassi :doh:
- concorrenza di AMD :asd: :mc:
guardate bene sono solo chiacchiere senza nessuna prova anzi sotto nella tabella sulla 3080TI / 3090 mettono ancora GDDR6X da 12 GB, che non esistono
mikael84
21-07-2020, 11:35
In passato però ricordo che fu fatto con la GTX260, uscita a 65nm con 192 cuda e poi riproposta a 55nm con 216 cuda... (di quest'ultima ne ho ancora una funzionante in un pc di mio fratello... non gioca ovviamente..)
Altra ipotesi che si era paventata in maggio, era quella dell'adozione dei 7nm per la fascia alta e gli 8nm Samsung per la fascia bassa, ma questo sembra ormai sfumato...
Comunque, alla luce del fatto che gli accordi con TMSC siano sfumati per Ampere Consumer e che AMD difatti si troverà su un PP più efficiente, ci sta che nVidia stia cercando di colmare questo gap innalzando il TDP.
Diciamo che sino a GT200, si facevano annualmente questi saltelli, ma ormai scordiamoceli proprio.
Nvidia è completamente presa dal lavoro su hopper, che potrebbe essere il suo primo chip MCM, prima in HPC poi in pro/gaming.
Sul nodo, per ora tutto riconduce a samsung, con i 7nm il die size sarebbe stato sui 540 circa, e di certo non con quei tdp.:)
A proposito della possibile adozione di un "Trasversal Coprocessor" sulle top di gamma Ampere, si sa qualcosa in più in merito? E' notizia fondata o solo un'altro fake?
Era una sparata di igorlabs, che io avevo analizzato qua:
https://www.hwupgrade.it/forum/showpost.php?p=46841783&postcount=47669
Per il momento non trova fondamenta, ed anche se fosse, verrebbe messo solo sul ga102.
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-20-faster-than-rtx-2080-ti/
Se fosse vero, allora AMPERE sta a PASCAL come TURING sta a MAXWELL.
Nel senso che il salto di nodo anche in questo caso favorisce il boost prestazionale grazie alle frequenze più pompate.
Nvidia generalmente lavora sempre così, TPC per GPC e balzello di clock.
Una sorta di tick-tock, dove nella prima fase aggiorna la micro architettura, nell'altra la pompa.
Lecito aspettarsi lo stesso distacco che c'era tra la 980 ti e la 1080, inoltre questa 3080 è forte del fatto che è un cut di un chip molto corposo come GA102, non è un chip medio molto tirato come potrebbe essere GA104.
A questo punto mi aspetto una 3070 nei paraggi della 2080 ti almeno reference.
Si, uno dei vantaggi della 3080 sarà questo, altrimenti gli toccava, il saltello TPC per GPC, e quindi 3840cc.
Sui 7nm, ci stava pure, in quanto recuperava con i clock.
mircocatta
21-07-2020, 11:45
ma che c'è di strano in quella news? 3080 +20% dalla 2080ti, è la stessa differenza che cè tra 1080ti e 2080S o sbaglio?
mi sembra tutto nella norma visto che si parlava di 3080ti +40% dalla 2080ti, in quel 40% dovran pure infilarci almeno un altra scheda, se non due imho
mikael84
21-07-2020, 11:58
guardate bene sono solo chiacchiere senza nessuna prova anzi sotto nella tabella sulla 3080TI / 3090 mettono ancora GDDR6X da 12 GB, che non esistono
Le gddr6x da 21gb/s non esistono, per ora abbiamo solo samsung e micron a 16 e rambus (ma non se la fileranno) a 18.
Riguardo il chip, nvidia lavora sempre TPC per GPC x clock (dove possibile).
Attualmente ha 6 GPC x 6 TPC, ma aumentare a 7, diventerebbe praticamente un chip di puro calcolo, senza guadagnare primitive, e miriadi di pixel non elaborati.
Un GPC da 7 TPC potrebbe memorizzare 28 rop's ed elaborarne 16.
Nello speculato, hanno mantenuto la struttura del TU102, aggiungendo un settimo GPC, ma non collegato.
ma che c'è di strano in quella news? 3080 +20% dalla 2080ti, è la stessa differenza che cè tra 1080ti e 2080S o sbaglio?
mi sembra tutto nella norma visto che si parlava di 3080ti +40% dalla 2080ti, in quel 40% dovran pure infilarci almeno un altra scheda, se non due imho
A sto giro è un caso unico, dopo la 780ti a dire il vero.
Con kepler lo fecero perchè non avevano rese a sufficienza però
La 3080 doveva avere 3840cc e la 3080ti uno scarto del GA102
Ale55andr0
21-07-2020, 11:59
Scordiamoci 2 cose allora:
- prezzi bassi :doh:
- concorrenza di AMD :asd: :mc:
perch? in fondo la big navi fino a qualche mese fa era data un +30% sulla 2080ti, per giunta riferito a un modello "custom OC" dicevano
OrazioOC
21-07-2020, 12:14
perch? in fondo la big navi fino a qualche mese fa era data un +30% sulla 2080ti, per giunta riferito a un modello "custom OC" dicevano
Data da chi? :asd:.
mircocatta
21-07-2020, 12:32
Data da chi? :asd:.
credi davvero che per amd sia impossibile superare la 2080ti con rdna2 solo perchè si chiama amd?:confused: :confused:
OrazioOC
21-07-2020, 12:37
credi davvero che per amd sia impossibile superare la 2080ti con rdna2 solo perchè si chiama amd?:confused: :confused:
Io non credo che amd possa superare una 2080 ti perchè nel 2020 ancora non ha una scheda che possa battere gp102, e perfavore non ci mettiamo a citare titoli amichevoli, una 1080 ti custom è mediamente un 10% più veloce sia della 5700 xt che di v7. :rolleyes:
https://static.techspot.com/articles-info/2017/bench/5700XT.png
Scheda di 3 anni fa.:rolleyes:
Ale55andr0
21-07-2020, 12:45
Data da chi? :asd:.
dagli stessi che diffondo i rumors attuali su nvidia :O
OrazioOC
21-07-2020, 12:46
dagli stessi che diffondo i rumors attuali su nvidia :O
Se ti riferisci a moron law, beh un conto è diffondere un conto è crederci :asd:.
Ale55andr0
21-07-2020, 12:48
Io non credo che amd possa superare una 2080 ti perchè nel 2020 ancora non ha una scheda che possa battere gp102, e perfavore non ci mettiamo a citare titoli amichevoli, una 1080 ti custom è mediamente un 10% più veloce sia della 5700 xt che di v7. :rolleyes:
https://static.techspot.com/articles-info/2017/bench/5700XT.png
Scheda di 3 anni fa.:rolleyes:
una 5700xt mediamente (quindi non citando solo casi favorevoli ma in combinato) si piazza fra 2070 e 2070s, ergo non vedo come una scheda con +/- doppio delle cu e architettura migliorata non possa farlo, ma se hai "deciso" così ok :O
OrazioOC
21-07-2020, 12:56
una 5700xt mediamente (quindi non citando solo casi favorevoli ma in combinato) si piazza fra 2070 e 2070s, ergo non vedo come una scheda con +/- doppio delle cu e architettura migliorata non possa farlo, ma se hai "deciso" così ok :O
Ma se la 5700 xt, con 40 cu prende 225w, come fai a metterne il doppio tenendo la gpu in limiti accettabili in fatto di tdp?Oppure credete che un leggero affinamento del già ottimo 7nm possa fare il miracolo? :asd:
Ale55andr0
21-07-2020, 13:07
Ma se la 5700 xt, con 40 cu prende 225w, come fai a metterne il doppio tenendo la gpu in limiti accettabili in fatto di tdp?Oppure credete che un leggero affinamento del già ottimo 7nm possa fare il miracolo? :asd:
poi uno legge la tua firma e.. :Prrr:
(si scherza)
fraussantin
21-07-2020, 13:12
Ma se la 5700 xt, con 40 cu prende 225w, come fai a metterne il doppio tenendo la gpu in limiti accettabili in fatto di tdp?Oppure credete che un leggero affinamento del già ottimo 7nm possa fare il miracolo? :asd:
Se veramente raddoppiano le cu dovranno tagliare le frequenze.
A meno che non riescano a selezionare finalmente in maniera decente i chip e fare 2 versioni con voltaggi umani e frequenze diverse.
A meno che non cambino totalmente architettura , ma non penso visto che non hanno cambiato nome ( sempre navi è se non erro)
Ale55andr0
21-07-2020, 13:15
comunque ci si scorda che oltre al pp ulteriormente affinato anche l'archittettura non è la stessa. Quanto ai consumi spesso sono dovuti al fatto che amd spara le tensioni più del necessario, magari a sto giro calibrano meglio :D
/OT
Andy1111
21-07-2020, 13:16
Ma se la 5700 xt, con 40 cu prende 225w, come fai a metterne il doppio tenendo la gpu in limiti accettabili in fatto di tdp?Oppure credete che un leggero affinamento del già ottimo 7nm possa fare il miracolo? :asd:
Solo di processo produttivo :
https://wccftech.com/tsmc-details-7nm-manufacturing-process-euv/
https://www.tomshw.it/hardware/i-dettagli-sul-processo-produttivo-a-5-nanometri-di-tsmc/
7ff vs 7ff+
10% efficienza energetica
circa 20% riduzione area
prestazioni maggiori = frequenze più alte
sono vecchi articoli quindi sicuramente ci sarà stato un affinamento come successo con i 7ff esempio i Ryzen XT
Crysis90
21-07-2020, 13:18
Data da chi? :asd:.
https://i.imgur.com/m644q5o.jpg
OrazioOC
21-07-2020, 13:22
Solo di processo produttivo :
https://wccftech.com/tsmc-details-7nm-manufacturing-process-euv/
https://www.tomshw.it/hardware/i-dettagli-sul-processo-produttivo-a-5-nanometri-di-tsmc/
7ff vs 7ff+
10% efficienza energetica
circa 20% riduzione area
prestazioni maggiori = frequenze più alte
sono vecchi articoli quindi sicuramente ci sarà stato un affinamento come successo con i 7ff esempio i Ryzen XT
Con il rapporto prestazioni/consumi della 5700 xt di certo non ci metti 80 cu in 300w di tdp, ma neanche con quello della liscia, anche con un miglioramento del 10% dell'efficienza rispetto ai 7nm attuali.
A meno di non fare downclock decisi che e metterci ancora una volta le hbm.:stordita:
Crysis90
21-07-2020, 13:23
perch? in fondo la big navi fino a qualche mese fa era data un +30% sulla 2080ti, per giunta riferito a un modello "custom OC" dicevano
Si, vabè, se si fa il riepilogo dei rumors sulle performances delle ultime 2 architetture AMD ci si può ridere un mese di fila. :asd:
- Vega 64 che doveva annientare a distruggere Pascal e le 1080/1080 Ti
- Navi che se la giocava ad armi pari con Turing e doveva riportare AMD all'apice delle vendite e delle performances a lato GPU
Si, come no.
Sappiamo tutti poi com'è andata.
:asd: :asd:
Andy1111
21-07-2020, 13:25
Con il rapporto prestazioni/consumi della 5700 xt di certo non ci metti 80 cu in 300w di tdp, ma neanche con quello della liscia, anche con un miglioramento del 10% dell'efficienza rispetto ai 7nm attuali.
A meno di non fare downclock decisi che e metterci ancora una volta le hbm.:stordita:
ok come dici tu vedremo a ottobre quando escono come stanno veramente le cose :read:
secondo te è possibile un shrink a 7nm di Ampere fra un annetto, magari con le ipotetiche versioni Super?
Per me è 100% sicuro che ci sarà un refresh l'anno prossimo. Vedremo cosa e quanto.
ninja750
21-07-2020, 13:56
A meno che non riescano a selezionare finalmente in maniera decente i chip e fare 2 versioni con voltaggi umani e frequenze diverse.
quello lo do per scontato, big navi un po stile 3950x che è la super selezione dei chiplet per salire e consumare meno di quelli venduti inferiori
e magari gli stessi chip con selezione peggiore saranno i sostituti delle 5700xt chiamati 6700xt o 5750xt che sia
consideriamo che se big navi si dovrà confrontare con ampere e i consumi dei leak sono veri facile che consumi meno anche se di poco :stordita:
mikael84
21-07-2020, 14:28
perch? in fondo la big navi fino a qualche mese fa era data un +30% sulla 2080ti, per giunta riferito a un modello "custom OC" dicevano
Le percentuali sui giochi puoi averle solo a chip finito.;)
Io non credo che amd possa superare una 2080 ti perchè nel 2020 ancora non ha una scheda che possa battere gp102, e perfavore non ci mettiamo a citare titoli amichevoli, una 1080 ti custom è mediamente un 10% più veloce sia della 5700 xt che di v7. :rolleyes:
https://static.techspot.com/articles-info/2017/bench/5700XT.png
Scheda di 3 anni fa.:rolleyes:
AMD è avanti di un nodo completo.
Con 395/400mm2 sul PP avanzato di AMD, è come avere un die a 700mm2 a 12nm, e le relative specifiche di una Titan RTX, con oltre 16mtransistor.
AMD ha deciso di effettuare un massiccio lavoro elettrico, quindi il rapporto clock/tensione potrebbe essere ben migliore.
Le sue carte da giocare le ha, con un salto di nodo netto.:)
Per me è 100% sicuro che ci sarà un refresh l'anno prossimo. Vedremo cosa e quanto.
a 7NM no.:)
Si, vabè, se si fa il riepilogo dei rumors sulle performances delle ultime 2 architetture AMD ci si può ridere un mese di fila. :asd:
- Vega 64 che doveva annientare a distruggere Pascal e le 1080/1080 Ti
- Navi che se la giocava ad armi pari con Turing e doveva riportare AMD all'apice delle vendite e delle performances a lato GPU
Si, come no.
Sappiamo tutti poi com'è andata.
:asd: :asd:
Li infatti c'era da ragionare, mi ricordo io e Ren che lo ripetevamo senza essere mai ascoltati.
Vega era un 2x polaris, come la 1080 era un 2x la 1060, ecco infatti confermati i risultati.:)
Per avere una 1080ti con vega dovevi quasi triplicare polaris.
La 1080ti erano quasi 2 1070 messe insieme.
AkiraFudo
21-07-2020, 15:04
Ma se la 5700 xt, con 40 cu prende 225w, come fai a metterne il doppio tenendo la gpu in limiti accettabili in fatto di tdp?Oppure credete che un leggero affinamento del già ottimo 7nm possa fare il miracolo? :asd:
ma se prende 200W di picco con voltaggio stock 1,200v che come al solito AMD è piuttosto generoso...quindi puoi anche tranquillamente undervoltarlo.
Da che ho memoria sono penso 7/8 anni buoni, dalla mitica 7970 di Ati che ogni anno ci sono rumors su come la prossima x scheda di AMD debba sfondare il culo a tutti e puntualmente...
Da che ho memoria sono penso 7/8 anni buoni, dalla mitica 7970 di Ati che ogni anno ci sono rumors su come la prossima x scheda di AMD debba sfondare il culo a tutti e puntualmente...
In realtà l'ultima GPU AMD competitiva nella fascia alta fu la 290x che costrinse nvidia a far uscire la 780ti e la titan completamente sbloccata e ancora oggi si difende più discretamente nei titoli recenti, al contrario di kepler che ha prestazioni traballanti.
Da Maxwell in poi, non c'è più stata una concorrenza vera e propria rispetto al chippone di nvidia, ma a questo giro AMD è in vantaggio sul PP, quindi teoricamente dovrebbe riuscire a rivaleggiare meglio degli altri anni però è da vedere se riuscirà a contrastare GA102, non credo che riuscirà ad allontanarsi dalla 3080.
Personalmente preferisco tenermi basso fino alla 3070, e sicuramente AMD mostrerà soluzioni competitive da questa fascia in giù, la differenza la faranno in primis i bench e i prezzi.
mircocatta
22-07-2020, 10:19
però a sto giro abbiamo qualcosa di più concreto in mano, come rdna2 montato su scarlett di cui sappiamo bene o male dimensione del chip, tdp e cosa contiene
https://www.techpowerup.com/gpu-specs/xbox-series-x-gpu.c3482
Thunder-74
22-07-2020, 10:54
però a sto giro abbiamo qualcosa di più concreto in mano, come rdna2 montato su scarlett di cui sappiamo bene o male dimensione del chip, tdp e cosa contiene
https://www.techpowerup.com/gpu-specs/xbox-series-x-gpu.c3482
La versione di RDNA2 della XBox Series X se la batte con una 2080S, spero in un po' più di muscoli nella versione PC... almeno il doppio :fagiano: .. scherzo ;)
comunque oggi è uscita una notizia che a quanto si dice sia da fonte che in passato ha rivelato notizie vere... Big Navi avrà 16Gb di GDDR6
LINK (https://wccftech.com/amd-radeon-rx-big-navi-enthusiast-graphics-card-16-gb-vram-q4-2020-launch-rumor/)
magic carpet
22-07-2020, 11:01
La versione di RDNA2 della XBox Series X se la batte con una 2080S, spero in un po' più di muscoli nella versione PC... almeno il doppio :fagiano: .. scherzo ;)
comunque oggi è uscita una notizia che a quanto si dice sia da fonte che in passato ha rivelato notizie vere... Big Navi avrà 16Gb di GDDR6
LINK (https://wccftech.com/amd-radeon-rx-big-navi-enthusiast-graphics-card-16-gb-vram-q4-2020-launch-rumor/)
Notizia ripresa anche da TomsHW
https://www.tomshw.it/hardware/amd-radeon-rx-big-navi-nuove-interessanti-informazioni-sulle-gpu-enthusiast-rdna2/
Andy1111
22-07-2020, 11:02
La versione di RDNA2 della XBox Series X se la batte con una 2080S, spero in un po' più di muscoli nella versione PC... almeno il doppio :fagiano: .. scherzo ;)
comunque oggi è uscita una notizia che a quanto si dice sia da fonte che in passato ha rivelato notizie vere... Big Navi avrà 16Gb di GDDR6
LINK (https://wccftech.com/amd-radeon-rx-big-navi-enthusiast-graphics-card-16-gb-vram-q4-2020-launch-rumor/)
Per ottobre sapremo come va e prezzi, e anche come gestiranno RTX, se non c'è un cambio di rotta gli RTcore non ci saranno sicuramente, e visto come poltrivano su Turing forse non è sbagliato.
ninja750
22-07-2020, 11:16
Personalmente preferisco tenermi basso fino alla 3070
questo giro c'è puzza che il "basso" della 3070 stia su cifre che cominciano per 6 o 7
mikael84
22-07-2020, 11:25
La versione di RDNA2 della XBox Series X se la batte con una 2080S, spero in un po' più di muscoli nella versione PC... almeno il doppio :fagiano: .. scherzo ;)
comunque oggi è uscita una notizia che a quanto si dice sia da fonte che in passato ha rivelato notizie vere... Big Navi avrà 16Gb di GDDR6
LINK (https://wccftech.com/amd-radeon-rx-big-navi-enthusiast-graphics-card-16-gb-vram-q4-2020-launch-rumor/)
Si però devono fare pace con i rapporti.
A 384bit puoi mettere 12gb non 16gb.
per 16gb, hai due alternative:
1) un bus da 512bit molto esoso e costoso in consumi.
2) montare come al solito 4 stack HBM:)
Per ottobre sapremo come va e prezzi, e anche come gestiranno RTX, se non c'è un cambio di rotta gli RTcore non ci saranno sicuramente, e visto come poltrivano su Turing forse non è sbagliato.
Però è anche vero che a unità fp native, non vai da nessuna parte. 12TF li calcola una 2060.
a 7NM no.:)
Tornare a TMSC no eh?
mikael84
22-07-2020, 12:06
Tornare a TMSC no eh?
Si, probabilmente con hopper nel 2022, o anche prima per la H100 HPC.:)
fraussantin
22-07-2020, 12:17
Si, probabilmente con hopper nel 2022, o anche prima per la H100 HPC.:)Ma Hopper sarà a 5nm?
mikael84
22-07-2020, 14:23
Ma Hopper sarà a 5nm?
Nvidia vorrebbe usare quelli, ma non c'è certezza.
Di sicuro andrà oltre i 7nm base, che gli stanno già molto stretti per tale chip.
Con le rese pessime del 7nm per tale chip, non è escluso che riadatti il chip HPC, via mcm sui 5nm con 4 GPM
Ed allo stesso tempo con il chip gaming, passi a 4 GPM da 6144cc e 16gb.:)
Giovamas
22-07-2020, 16:00
altri rumor.. a me sembrano tutti numeri buttati là. comunque lo posto
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-20-faster-than-rtx-2080-ti/
altri rumor.. a me sembrano tutti numeri buttati là. comunque lo posto
https://wccftech.com/nvidia-geforce-rtx-3080-ampere-gaming-graphics-card-allegedly-20-faster-than-rtx-2080-ti/
Info certe le avremo tra un mesetto, forse anche prima, ma 20% sopra la 2080ti per la 3080 sono fattibilissimi, con i cambiamenti alla l1 e l2 dovrebbe esserci almeno un 10-15% in più di IPC, e clock maggiori.
Anche la 3070 in raster dovrebbe giocarsela con la 2080ti, se andasse meno tanto valeva prendere la 2080s e farla a 8nm :fagiano:
OrazioOC
22-07-2020, 16:19
Info certe le avremo tra un mesetto, forse anche prima, ma 20% sopra la 2080ti per la 3080 sono fattibilissimi, con i cambiamenti alla l1 e l2 dovrebbe esserci almeno un 10-15% in più di IPC, e clock maggiori.
Anche la 3070 in raster dovrebbe giocarsela con la 2080ti, se andasse meno tanto valeva prendere la 2080s e farla a 8nm :fagiano:
Ma infatti la 3070 è praticamente una 2080 s shrinkata sugli 8nm :asd:.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.