View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Secondo un mio amico la 3090, per costo e grandezza della vram, potrebbe essere un dualgpu, secondo voi ??
terranux
26-08-2020, 19:46
ma il pcb nella 3090 è corto o mi sbaglio?
Ale55andr0
26-08-2020, 19:53
La 3070 sarà un chip da 400 e rotti mm2, e sicuramente 250watt max, non avrebbe alcun senso quel connettore.
Probabilmente non avrà neppure nvlink.
Se avrà un 2x8 pin è tanto.
a ram e CC come starà messa secondo te?
AceGranger
26-08-2020, 19:54
Io temo che me lo manderebbe dritto sulle ram quell'aria calda e siccome ho 2x 16gb dual rank che scaldano cmq più delle single rank mi da un filo di preoccupazione :fagiano:
Bah, vedremo, con la 3080 cmq sia ci sara' il tdp inferiore rispetto alla 3090 (ma anche il dissi più piccolo) :stordita:
bè ma in realta ci arriva anche con le GPU normali perchè l'aria la buttano a 360° e quella che viene sparata dietro la GPU poi sale; teoricamente in questo modo di dovrebeb avere un flusso d'aria veicolato fuori piu velocemente, assumendo ovviamente di avere nelle parte superiore e superiore/posteriore le ventole in estrazione, seno si, è un casino.
vedremo, sono curioso di vedere test a riguardo
Secondo un mio amico la 3090, per costo e grandezza della vram, potrebbe essere un dualgpu, secondo voi ??
Credo proprio di no, si parla di RAM a doppia densità e (forse) un chip trasversale per calcoli a bassa precisione.
bronzodiriace
26-08-2020, 20:42
Con 200 euro Nvidia ormai ti può dare solo una pacca sulle spalle ma da Jensen in persona :sofico:
Purtroppo considerando dimensioni, nuovo processo produttivo e tutto 400 euro possono essere realistiche per la 3060.Nemmeno la pacca da Jensen. Si potrebbe deteriorare la giacca in pelle umana.
Inviato dal mio MAR-LX1A utilizzando Tapatalk
Arrow0309
26-08-2020, 20:47
Secondo un mio amico la 3090, per costo e grandezza della vram, potrebbe essere un dualgpu, secondo voi ??
Quel tuo amico si e' sempre sbagliato col dual gpu
Grandezza vram?
E allora la Titan a 48gb?
Che sia una quad gpu? :D
TigerTank
26-08-2020, 20:56
Cmq raga ma o so cieco io oppure ho qualche difetto alla vista ma io vedo sta ventola suol retro in push non in pull: :fagiano: :doh:
https://assets.rockpapershotgun.com/images/2020/06/RTX-3080.jpg
Mica la fanno girare all'incontrario?
Cioe' rispetto al design delle pale intendo, dovrebbe girare nel senso orario (seppur le ventole girano nel senso antiorario) ma il design e' quello
Edit:
Forse ho capito, per farla in pull come una vera ventola in pull cioe' messa sotto sopra, si sarebbe vista male
Quindi mi sa che gira veramente sempre nel senso antiorario e diventa quindi un aventola "in pull", in evacuazione :doh:
Sì la ventola sul retro a me sembra proprio in pull se gira in senso orario guardando la foto. Diciamo che è un pò lo stesso principio di certe ventole che stanno sulle evga, in tal caso però al contrario. Cioè il flusso creato dalla parte convessa delle pale e con da quella concava come nelle ventole classiche.
AceGranger
26-08-2020, 21:03
Sì la ventola sul retro a me sembra proprio in pull se gira in senso orario guardando la foto. Diciamo che è un pò lo stesso principio di certe ventole che stanno sulle evga, in tal caso però al contrario. Cioè il flusso creato dalla parte convessa delle pale e con da quella concava come nelle ventole classiche.
si gira in senso antiorario
Tempo fa c’era anche un Titan dual gpu Che è più per il professionale oggi ... credo che la ram ha più senso su un dual per aver la ram condivisa in nvlink
TigerTank
26-08-2020, 21:10
si gira in senso antiorario
Rettifico, sto design confonde le idee perchè stavolta in un montaggio classico su mobo verticale, la scheda non sarebbe "sottosopra" come le classiche ma il logo starebbe a vista sopra.
Quindi sì...da questo punto di vista imho potrebbe essere che entrambe le ventole girino in antiorario. Quella sotto in push e quella sopra in pull appunto sul principio delle ventole evga che creano flusso tramite convessità.
Arrow0309
26-08-2020, 21:37
No, per come sono messe le 2 facce della scheda nella foto sopra, girano entrambe in senso orario :)
Quella dal lato del logo(che sarà sotto in un montaggio solito) è classica e aspira aria mentre quella del "retro"(che finirà sopra) girando in senso orario la butta fuori. :)
Imho ovviamente. Ho questa impressione.
P.S. Quella posteriore non può girare in antiorario o sarebbe anch'essa in push mentre la conformazione è confermata essere un push-pull.
Credo abbiano adottato appunto lo stesso principio di certe ventole evga a pale convesse. Normalmente in push questo tipo di ventola a pale convesse gira in senso antiorario(come nell'evga che ho postato sopra come esempio al volo) mentre qui essendo in pull girerà anch'essa in senso orario.
OK (e conosco le ventole EVGA di una volta, in pull) ma non sembra cosi' affatto
Have a look (entrambe girando in senso orario):
https://i.postimg.cc/0yfqmGdC/RTX-3080.jpg https://i.postimg.cc/qv0TzDnR/2-gtx-960-evga-ssc-front.jpg
Allora si nota chiaramente come sulla EVGA, la parte inferiore delle pale taglia l'aria e la convoglia verso l'alto, quindi pull.
Mentre sulla Ampere?
E' chiaro come la parte superiore taglia l'aria e la manda sul dissipatore sotto (push).
Se non e' cosi' devo andare dall'oculista :asd:
amon.akira
26-08-2020, 21:44
girerà al contrario e la butta fuori...fine :D
AceGranger
26-08-2020, 21:49
No, per come sono messe le 2 facce della scheda nella foto sopra, girano entrambe in senso orario :)
Quella dal lato del logo(che sarà sotto in un montaggio solito) è classica e aspira aria mentre quella del "retro"(che finirà sopra) girando in senso orario la butta fuori. :)
Imho ovviamente. Ho questa impressione.
P.S. Quella posteriore non può girare in antiorario o sarebbe anch'essa in push mentre la conformazione è confermata essere un push-pull.
Credo abbiano adottato appunto lo stesso principio di certe ventole evga a pale convesse. Normalmente in push questo tipo di ventola a pale convesse gira in senso antiorario(come nell'evga che ho postato sopra come esempio al volo) mentre qui essendo in pull girerà anch'essa in senso orario.
eh no, quelle che hai postato tu di EVGA girano si in senso antiorario, ma le pale pescano aria e la buttano in giu, mentre quella dal lato con il logo girera anche'essa in senso anti-orario ma le pale sono conformate per spingere aria in su; facendole girare in senso orario spingerebbero l'aria verso il basso; quella con il logo è la faccia verso al CPU che buttera l'aria verso le ram
girano entrambe in senso anti-orario.
dovrebbero andare cosi
https://i.ibb.co/LQ0YJn8/RTX-3080.jpg (https://ibb.co/DG1z85t)
TigerTank
26-08-2020, 22:01
eh no, quelle che hai postato tu di EVGA girano si in senso antiorario, ma le pale pescano aria e la buttano in giu, mentre quella dal lato con il logo girera anche'essa in senso anti-orario ma le pale sono conformate per spingere aria in su; facendole girare in senso orario spingerebbero l'aria verso il basso.
girano entrambe in senso anti-orario.
Esatto, stesso principio di evga per quella in pull(flusso creato dalla convessità delle pale).
http://i.imgur.com/4UtI7yvl.jpg (https://imgur.com/4UtI7yv)
P.S. Ahahaha ecco, siamo arrivati alla convergenza grafica :sofico:
Sì sta scheda confonde un pò le idee...a prima vista la faccia con il nome sembra il classico lato del dissipatore standard e invece è il "sotto"(che diventa sopra in un montaggio classico "a testa in giù").
AceGranger
26-08-2020, 22:06
Esatto, stesso principio di evga per quella in pull ma ventola appunto in tal caso montata al contrario.
CUT
P.S. Ahahaha ecco, siamo arrivati alla convergenza grafica :sofico:
Sì sta scheda confonde un pò le idee...a prima vista la faccia con il nome sembra il classico lato del dissipatore standard e invece è il "sotto"(che diventa sopra in un montaggio classico a testa in giù).
hahaah si, abbiamo raggiunto la quadra.
MrBrillio
26-08-2020, 22:08
2) 10 GB di ram per le 3080 quando ne ho 11 sulla mia attuale 1080 Ti.
Sì ma dove la tua (e anche mia) 1080ti occupa 6 giga in game, una 3080 (come gia le rtx) ne occuperà meno... Senza contare la velocità più sostenuta rispetto alla vram montata sulle pascal. E non stiamo a mettere in mezzo raytracing e dlss che le nostre vedono col binocolo. Se c'è qualcuno che non dovrebbe lamentarsi di ampere, è chi proprio come me ha saltato le 2080ti o 2080 lisce.. Il salto sarà incredibile e sicuramente porterà novità non utilizzabili per noi al momento o in futuro. Dai su... Non cercate ogni volta problemi dove non ce ne sono...
TigerTank
26-08-2020, 22:12
hahaah si, abbiamo raggiunto la quadra.
Sì scusami, avevo scritto entrambe in senso orario perchè avevo invertito sopra e sotto della scheda per la posizione del nome, finchè non mi sono reso conto della staffa e del connettore PCI-E :D
OK (e conosco le ventole EVGA di una volta, in pull) ma non sembra cosi' affatto
Have a look (entrambe girando in senso orario):
https://i.postimg.cc/0yfqmGdC/RTX-3080.jpg https://i.postimg.cc/qv0TzDnR/2-gtx-960-evga-ssc-front.jpg
Allora si nota chiaramente come sulla EVGA, la parte inferiore delle pale taglia l'aria e la convoglia verso l'alto, quindi pull.
Mentre sulla Ampere?
E' chiaro come la parte superiore taglia l'aria e la manda sul dissipatore sotto (push).
Se non e' cosi' devo andare dall'oculista :asd:
No Arrow, guarda meglio. Il principio di convessità è lo stesso ma le pale sono l'opposto.
Arrow0309
26-08-2020, 22:14
Sì scusami, avevo scritto entrambe in senso orario perchè avevo invertito sopra e sotto della scheda per la posizione del nome, finchè non mi sono reso conto della staffa e del connettore PCI-E :D
LOL
Ma allora e' vero che sta ventola e' sbagliata :D
Fosse come quella dell'EVGA pure pure ma non lo e'
E se fosse sempre in push? Tanto e' una custom mica reference a barra :D
TigerTank
26-08-2020, 22:19
LOL
Ma allora e' vero che sta ventola e' sbagliata :D
Fosse come quella dell'EVGA pure pure ma non lo e'
E se fosse sempre in push? Tanto e' una custom mica reference a barra :D
No no è in pull. Guarda meglio sopra, guarda l'attacco delle pale al rotore. Crea il pull girando in senso antiorario. Comunque di sicuro dissiperemo ogni dubbio quando usciranno anche le prime videorecensioni :D
amon.akira
26-08-2020, 22:26
LOL
Ma allora e' vero che sta ventola e' sbagliata :D
Fosse come quella dell'EVGA pure pure ma non lo e'
E se fosse sempre in push? Tanto e' una custom mica reference a barra :D
se hai visto il video nvidia, li fanno vedere che è push pull
TigerTank
26-08-2020, 22:45
se hai visto il video nvidia, li fanno vedere che è push pull
Sì, è una scheda strana in quanto ad airflow :D
http://i.imgur.com/DYxgC4Rl.jpg (https://imgur.com/DYxgC4R)
Io aspetto di vedere le custom :stordita:
P.S. Chi la monta "in piedi" si ritrova con il flusso d'aria calda in uscita che va a sbattere sulla mobo/chipset/ssd NVME?
AceGranger
26-08-2020, 22:55
Sì, è una scheda strana in quanto ad airflow :D
http://i.imgur.com/DYxgC4Rl.jpg (https://imgur.com/DYxgC4R)
Io aspetto di vedere le custom :stordita:
P.S. Chi la monta "in piedi" si ritrova con il flusso d'aria calda in uscita che va a sbattere sulla mobo/chipset/ssd NVME?
si, non è una GPU indicata per quel tipo di montaggio
TigerTank
26-08-2020, 22:56
si, non è una GPU indicata per quel tipo di montaggio
Vero.
Curioso di vedere anche come saranno i wubbi "fullcover" :mc:
AceGranger
26-08-2020, 23:06
Vero.
Curioso di vedere anche come saranno i wubbi "fullcover" :mc:
visto che hanno usato anche il connettore nuovo, dubito che questo sara il PCB reference degli OEM; probabilmente ce ne sara uno "classico" sul quale faranno i vari wubbi.
Arrow0309
26-08-2020, 23:09
Sì, è una scheda strana in quanto ad airflow :D
http://i.imgur.com/DYxgC4Rl.jpg (https://imgur.com/DYxgC4R)
Io aspetto di vedere le custom :stordita:
P.S. Chi la monta "in piedi" si ritrova con il flusso d'aria calda in uscita che va a sbattere sulla mobo/chipset/ssd NVME?
Yesss, a me darebbe cmq fastidio l'airflow addosso alla ram
Ma vedremo, nel caso mi invento qualcosa :p
FrancoBit
26-08-2020, 23:10
Ma come son curioso di vedere le recensioni di ste schede. Però non sono convinto sto giro, giacchino mi deve proprio convincere xchè secondo me non lo so ma.......
Inviato dal mio Mi 9 SE utilizzando Tapatalk
Sì, è una scheda strana in quanto ad airflow :D
http://i.imgur.com/DYxgC4Rl.jpg (https://imgur.com/DYxgC4R)
Io aspetto di vedere le custom :stordita:
P.S. Chi la monta "in piedi" si ritrova con il flusso d'aria calda in uscita che va a sbattere sulla mobo/chipset/ssd NVME?
Invece secondo me non è strana, anzi :D
Ha molto più senso della mia EVGA 2080 XC Ultra ad esempio, che per carità ha un ottimo cooler tri-slot. Ma avere un PCB corto e far passare l'aria "attraverso" la scheda è un'ottima idea.
Da vedere il discorso RAM.
mikael84
26-08-2020, 23:28
a ram e CC come starà messa secondo te?
Una 2080 in versione Ampere, stessi cc/rop's/tmu, ma IPC (cache) e BW maggiorate.
fireradeon
26-08-2020, 23:43
Sono proprio curioso di vedere questa presentazione giorno 1. :)
sertopica
27-08-2020, 05:09
Sì, è una scheda strana in quanto ad airflow :D
http://i.imgur.com/DYxgC4Rl.jpg (https://imgur.com/DYxgC4R)
Io aspetto di vedere le custom :stordita:
P.S. Chi la monta "in piedi" si ritrova con il flusso d'aria calda in uscita che va a sbattere sulla mobo/chipset/ssd NVME?
Hanno preso ispirazione dal conto in banca dopo averla acquistata. :D
Thunder-74
27-08-2020, 07:40
Alimentatori della serie MSI Intros MPG GF progettati specificamente per le schede grafiche di nuova generazione NVIDIA
MSI presenta gli alimentatori della serie MPG GF nelle varianti da 850 W, 750 W e 650 W, progettati per le schede grafiche NVIDIA di nuova generazione
https://cdn.wccftech.com/wp-content/uploads/2020/08/MPG_GFSeries_VGA_CPU15.jpg
https://cdn.wccftech.com/wp-content/uploads/2020/08/image_2020_08_26T15_03_58_991Z.png
https://i.imgur.com/kBLhtC4.png
https://i.imgur.com/IyuzEO1.png
https://i.imgur.com/2RN7Xr4.png
Quindi...
1) a cosa serve cambiare ALI se in bundle con la VGA c'è lo stesso cavo usato con l'ALI ?
2) MSI presenta tre alimentatori con wattaggio "normale" pur presentando la feature "Ampere ready"che presentano dai 35 ai 40 A sulle linee VGA.
Io direi di valutare solamente quanti ampere si hanno effettivamente sulle linee da 12V del proprio ALI. Nel caso di Ali da 750W in su in single rail non mi preoccuperei, nei multi rail bene essere sopra ai 35A, mi verrebbe da dire...
FONTE (https://wccftech.com/msi-intros-mpg-gf-series-power-supplies-nvidia-next-gen-graphics-cards/)
albero77
27-08-2020, 07:56
Yesss, a me darebbe cmq fastidio l'airflow addosso alla ram
Ma vedremo, nel caso mi invento qualcosa :p
Per quanto mi riguarda prenderò in considerazione solo le custom, a questo punto erano da preferire i vecchi modelli monoventola che almeno l'aria la buttavano fuori dal case.
redbaron
27-08-2020, 08:26
É ovvio che adesso usciranno gli alimentatori Ampere ready a prezzi maggiorati.
Per quanto mi riguarda prenderò in considerazione solo le custom, a questo punto erano da preferire i vecchi modelli monoventola che almeno l'aria la buttavano fuori dal case.
Si vede che per GA102 non era possibile proporre quel design.
Ma non vedo il problema onestamente... Basta andare di custom.
OrazioOC
27-08-2020, 08:31
https://videocardz.com/newz/alphacool-confirms-readiness-for-geforce-rtx-30-ampere-series
Crysis90
27-08-2020, 08:33
https://www.hwupgrade.it/news/skvideo/nvidia-ha-l-80-del-mercato-delle-gpu-dedicate-e-adesso-arrivano-le-nuove-geforce_91589.html
Sempre più vicini al monopolio.
E i prezzi che continuano ad aumentare ne sono la triste conseguenza.
URGE che un altro player scenda in campo e si faccia valere, AMD/ATI a lato GPU è ormai l'ombra di quello che è stata. :(
Vabbè considera pure che il mercato delle GPU notebook dedicate di AMD è completamente morto... Se non fosse per le nuove APU ryzen difficilmente vedresti soluzioni con grafica AMD.
Poi ironicamente nonostante amd sia passata a soluzioni a 6 e 8 core ancora non sono previsti notebook con soluzioni più potenti di una 2060...
TigerTank
27-08-2020, 08:39
visto che hanno usato anche il connettore nuovo, dubito che questo sara il PCB reference degli OEM; probabilmente ce ne sara uno "classico" sul quale faranno i vari wubbi.
Boh....perchè a livello reference non so quanto convenga loro variare il progetto ufficiale nvidia a differenza di eventuali custom/versioni "cheap" semplificate.
Più che altro da vedere proprio cosa si inventeranno EK e simili a livello di wubbo reference visto che è quello che di solito esce prima ed è ai primi posti come pezzi venduti.
Io intanto aspetto il video con scardinamento completo(lui apre pure le parti incollate) della scheda da parte di "Tech Jesus" :sofico:
Yesss, a me darebbe cmq fastidio l'airflow addosso alla ram
Ma vedremo, nel caso mi invento qualcosa :p
Già...non è che faccia impazzire tutto quel flusso caldo sparato verso la zona ram-cpu.
Di sicuro sarà ancora più importante avere delle ventole in estrazione nel retro e nella parte superiore del case.
[B]
Quindi...
1) a cosa serve cambiare ALI se in bundle con la VGA c'è lo stesso cavo usato con l'ALI ?
2) MSI presenta tre alimentatori con wattaggio "normale" pur presentando la feature "Ampere ready"che presentano dai 35 ai 40 A sulle linee VGA.
Io direi di valutare solamente quanti ampere si hanno effettivamente sulle linee da 12V del proprio ALI. Nel caso di Ali da 750W in su in single rail non mi preoccuperei, nei multi rail bene essere sopra ai 35A, mi verrebbe da dire...
FONTE (https://wccftech.com/msi-intros-mpg-gf-series-power-supplies-nvidia-next-gen-graphics-cards/)
Eh loro ne approfittano per mangiarci sopra, lanciando nuovi alimentatori "ottimizzati" con la scusa della nuova soluzione energetica e del bisogno di un'erogazione più stabile.
Di sicuro fioccheranno anche i cavi aftertmarket moddati in vari colori per adattarli ai nostri kit sleevati.
Io ho ricontrollato i dati del mio ed è un single rail con 70.8A sui +12V. Dovrei essere a posto :sofico:
Poi chissà che non facciano qualche promozione, tipo che se prendi una evga hai sì l'adattatore ma magari anche un buono sconto per prendere un cavo associabile ai kit sleevati che abbiamo.
Con le Pascal avevano regalato i powerlink. Io non ho ancora avuto occasione di usarlo...perchè l'attuale 2080 ha i connettori girati di 180° e ora si sono inventati sto nuovo connettore da 12 :asd:
Invece secondo me non è strana, anzi :D
Ha molto più senso della mia EVGA 2080 XC Ultra ad esempio, che per carità ha un ottimo cooler tri-slot. Ma avere un PCB corto e far passare l'aria "attraverso" la scheda è un'ottima idea.
Da vedere il discorso RAM.
Dipende dai case. A parte la questione montaggio verticale ben poco ideale, bisogna organizzare un buon flusso di estrazione per evitare ristagno in zona ram-cpu.
Vabbè che io ormai lascio praticamente quasi sempre il case aperto lateralmente :D
Thunder-74
27-08-2020, 08:50
cut
Eh loro ne approfittano per mangiarci sopra, lanciando nuovi alimentatori "ottimizzati" con la scusa della nuova soluzione energetica e del bisogno di un'erogazione più stabile.
Di sicuro fioccheranno anche i cavi aftertmarket moddati in vari colori per adattarli ai nostri kit sleevati.
Io ho ricontrollato i dati del mio ed è un single rail con 70.8A sui +12V. Dovrei essere a posto :sofico:
cut..
sai che c'è è che mi aspettavo una connessione differente lato ALI. A questo punto tutto rimane com'è, controllando solamente di avere la giusta potenza.
Sicuro EVGA proporrà un cavo sleevato in tutte le salse. Se opteremo per un modello reference, ce lo compreremo e amen :)
Alekos Panagulis
27-08-2020, 09:01
Eh loro ne approfittano per mangiarci sopra, lanciando nuovi alimentatori "ottimizzati" con la scusa della nuova soluzione energetica e del bisogno di un'erogazione più stabile.
Di sicuro fioccheranno anche i cavi aftertmarket moddati in vari colori per adattarli ai nostri kit sleevati.
Io ho ricontrollato i dati del mio ed è un single rail con 70.8A sui +12V. Dovrei essere a posto :sofico:
Io ho le prolunghe sleevate upHere, che costano poco e fanno la loro figura.
Spero che realizzino l'adattatore a 12 pin....
Dovrei essere a posto con 100A sui +12v in single rail :oink:
Ma MSI è pazza a far uscire un multi rail nel 2020 roba che andava si e no 10 anni fa.
Inviato dal mio ELE-L29 utilizzando Tapatalk
Thunder-74
27-08-2020, 09:08
Io ho le prolunghe sleevate upHere, che costano poco e fanno la loro figura.
Spero che realizzino l'adattatore a 12 pin....
Dovrei essere a posto con 100A sui +12v in single rail :oink:
sono due parole che non metterei nella stessa frase, parlando di ALI e richiesta elevata di corrente... Imho ovviamente..
TigerTank
27-08-2020, 09:08
sai che c'è è che mi aspettavo una connessione differente lato ALI. A questo punto tutto rimane com'è, controllando solamente di avere la giusta potenza.
Sicuro EVGA proporrà un cavo sleevato in tutte le salse. Se opteremo per un modello reference, ce lo compreremo e amen :)
Meglio così...obbligare la gente a cambiare alimentatore di punto in bianco oltre alla spesa della vga sarebbe stato assurdo :D
scorpion73
27-08-2020, 09:09
https://i.postimg.cc/kMbW35kC/Enermax-Platimax-DF-1050-W.jpg (https://postimages.org/)
Il mio Enermax Platimax DF 1050W.
Un consiglio per le nuove VGA, contando che ho un 9900k su Z390 MEG ACE.
La distribuzione su rail 12v è la seguente:
25A su 12v1 e 12v2
40A su 12v3 e 12v4
Ora, premesso che:
- sul 12v4 ci metto 1 8 pin della VGA
- sul 12v1 la mobo
- sul 12v2 1 cavo aggiuntivo per la CPU
Il secondo 8 PIN della VGA e il secondo cavo aggiuntivo della CPU sulla mobo andrebbero entrambi sul 12v3.
Saranno sufficienti per una 3080 gli Ampere considerando che non c'è un secondo line diretto solo alla VGA?
Sì, è una scheda strana in quanto ad airflow :D
http://i.imgur.com/DYxgC4Rl.jpg (https://imgur.com/DYxgC4R)
Io aspetto di vedere le custom :stordita:
P.S. Chi la monta "in piedi" si ritrova con il flusso d'aria calda in uscita che va a sbattere sulla mobo/chipset/ssd NVME?
ma oltre al montarla in piedi e avere l'aria che va su mobo/chipset/ssd NVME, montandola tradizionalmente non va a scaldare tutta la zona del dissipatore della cpu e dei vrm? c'è qualcosa che non mi torna nel flusso d'aria che si sono studiati.
Thunder-74
27-08-2020, 09:14
https://i.postimg.cc/kMbW35kC/Enermax-Platimax-DF-1050-W.jpg (https://postimages.org/)
Il mio Enermax Platimax DF 1050W.
Un consiglio per le nuove VGA, contando che ho un 9900k su Z390 MEG ACE.
La distribuzione su rail 12v è la seguente:
25A su 12v1 e 12v2
40A su 12v3 e 12v4
Ora, premesso che:
- sul 12v4 ci metto 1 8 pin della VGA
- sul 12v1 la mobo
- sul 12v2 1 cavo aggiuntivo per la CPU
Il secondo 8 PIN della VGA e il secondo cavo aggiuntivo della CPU sulla mobo andrebbero entrambi sul 12v3.
Saranno sufficienti per una 3080 gli Ampere considerando che non c'è un secondo line diretto solo alla VGA?
non puoi dedicare i due connettori 12v4 alla VGA? Per la CPU usa 12V2 e 12V3
EDIT:
rileggendo ... vuoi dire che i 40A sono condivisi sui due connettori 12V4?
TigerTank
27-08-2020, 09:15
https://i.postimg.cc/kMbW35kC/Enermax-Platimax-DF-1050-W.jpg (https://postimages.org/)
Il mio Enermax Platimax DF 1050W.
Un consiglio per le nuove VGA, contando che ho un 9900k su Z390 MEG ACE.
La distribuzione su rail 12v è la seguente:
25A su 12v1 e 12v2
40A su 12v3 e 12v4
Ora, premesso che:
- sul 12v4 ci metto 1 8 pin della VGA
- sul 12v1 la mobo
- sul 12v2 1 cavo aggiuntivo per la CPU
Il secondo 8 PIN della VGA e il secondo cavo aggiuntivo della CPU sulla mobo andrebbero entrambi sul 12v3.
Saranno sufficienti per una 3080 gli Ampere considerando che non c'è un secondo line diretto solo alla VGA?
Vedendo il post di Thunder circa i nuovi alimentatori MSI, mi verrebbe da dedurre che si dovrebbe essere a posto con 2 linee da almeno 35A.
ma oltre al montarla in piedi e avere l'aria che va su mobo/chipset/ssd NVME, montandola tradizionalmente non va a scaldare tutta la zona del dissipatore della cpu e dei vrm? c'è qualcosa che non mi torna nel flusso d'aria che si sono studiati.
Come ho scritto sopra, a vedere anche questa simulazione grafica, conterà ancora di più avere un buon flusso in estrazione posteriore(e superiore) del case. Parlando di formato classico a livello di case.
Crysis90
27-08-2020, 09:26
Vabbè considera pure che il mercato delle GPU notebook dedicate di AMD è completamente morto... Se non fosse per le nuove APU ryzen difficilmente vedresti soluzioni con grafica AMD.
Poi ironicamente nonostante amd sia passata a soluzioni a 6 e 8 core ancora non sono previsti notebook con soluzioni più potenti di una 2060...
Che vuoi che ti dica, "ad ognuno il suo".
Ormai è palese dopo 15 anni che l'acquisizione di ATI non ha portato a nulla.
Visto che AMD le CPU le sa fare bene quando ci si mette di impegno, è giusto che si concentri su quel settore lì.
Ma è anche vero che se qualcuno non si da una mossa a riportare concorrenza nel settore GPU, no utenti finali siamo spacciati e siamo alla mercè dei prezzi assurdi di NVidia. :muro: :doh:
Alekos Panagulis
27-08-2020, 09:26
sono due parole che non metterei nella stessa frase, parlando di ALI e richiesta elevata di corrente... Imho ovviamente..
Dici? Finora non ho avuto problemi e il mio sistema ciuccia 600w in full load.
Controllo sempre i voltaggi su hwinfo ed è tutto ok.
scorpion73
27-08-2020, 09:31
non puoi dedicare i due connettori 12v4 alla VGA? Per la CPU usa 12V2 e 12V3
EDIT:
rileggendo ... vuoi dire che i 40A sono condivisi sui due connettori 12V4?
E già, mi sa proprio che sono condivisi sulla 12V4 perché c'è scritto sul manuale che quella eroga 40W.
40A stanno sul 12V4 e altri 40A stanno sul 12V3.
Quindi 40A sono condivisi fra CPU e GPU.
Mi sa che dovrò cambiare ali... ma a questo punto quale prendo come ali da 1000W?
Ho un HX1200 della corsair del 2018 su un altro PC, devo vedere se quello va bene, uno nuovo non so sinceramente che modello prendere.
mattxx88
27-08-2020, 09:34
https://www.guru3d.com/articles_pages/corsair_ax1200i_psu_review,8.html
ha retto 2 gtx 590, dovrei esser sereno :sofico:
Predator_1982
27-08-2020, 09:39
https://i.postimg.cc/kMbW35kC/Enermax-Platimax-DF-1050-W.jpg (https://postimages.org/)
Il mio Enermax Platimax DF 1050W.
Un consiglio per le nuove VGA, contando che ho un 9900k su Z390 MEG ACE.
La distribuzione su rail 12v è la seguente:
25A su 12v1 e 12v2
40A su 12v3 e 12v4
Ora, premesso che:
- sul 12v4 ci metto 1 8 pin della VGA
- sul 12v1 la mobo
- sul 12v2 1 cavo aggiuntivo per la CPU
Il secondo 8 PIN della VGA e il secondo cavo aggiuntivo della CPU sulla mobo andrebbero entrambi sul 12v3.
Saranno sufficienti per una 3080 gli Ampere considerando che non c'è un secondo line diretto solo alla VGA?
secondo me vi state facendo troppi problemi, con dei signori alimentatori che avete dubito ci saranno difficoltà ad alimentare anche una singola 3090
Predator_1982
27-08-2020, 09:47
Che vuoi che ti dica, "ad ognuno il suo".
Ormai è palese dopo 15 anni che l'acquisizione di ATI non ha portato a nulla.
Visto che AMD le CPU le sa fare bene quando ci si mette di impegno, è giusto che si concentri su quel settore lì.
Ma è anche vero che se qualcuno non si da una mossa a riportare concorrenza nel settore GPU, no utenti finali siamo spacciati e siamo alla mercè dei prezzi assurdi di NVidia. :muro: :doh:
secondo me non è proprio vero. Probabilmente è anche una scelta aziendale, considerando che a differenza dei verdi hanno da pensare anche ai reparti che sviluppano le CPU.
La 5700XT, resta comunque in generale un'ottima scheda e rdna2 (almeno sulla carta) non è per niente malaccio. Semplicemente si concentrano sul segmento che tira più soldi...li concorrenza la fanno.
Evidentemente a loro, del fatto che Nvidia detenga lo scettro del "l'abbiamo più grosso", interessa fino ad un certo punto.
Strategie commerciali differenti ma, evidentemente, funzionanti.
Alekos Panagulis
27-08-2020, 09:51
Che vuoi che ti dica, "ad ognuno il suo".
Ormai è palese dopo 15 anni che l'acquisizione di ATI non ha portato a nulla.
Visto che AMD le CPU le sa fare bene quando ci si mette di impegno, è giusto che si concentri su quel settore lì.
Ma è anche vero che se qualcuno non si da una mossa a riportare concorrenza nel settore GPU, no utenti finali siamo spacciati e siamo alla mercè dei prezzi assurdi di NVidia. :muro: :doh:
Due generazioni (più una sub-generazione) di consolle Microsoft e Sony con hardware all AMD ti sembra nulla??
Milioni e milioni di pezzi.
:doh:
edit: mezzo miliardo di gpu AMD consegnate fra il 2013 e il 2019....
https://www.hwupgrade.it/news/skvideo/amd-oltre-mezzo-miliardo-di-gpu-consegnate-in-7-anni_89816.html
Kostanz77
27-08-2020, 09:54
Accade sempre ad ogni lancio di nuove gpu, per poi scoprire che si gira addirittura larghi, addirittura si cambia pure piattaforma.. normale amministrazione:D
Io ho 70A sulla 12v single rail, con un i9 9900k direi che sono OK:D
Tanto una volta fatta una curva su Af (volt/freq) sará ben distante dai 300w di assorbimento (solo gpu)
bastano più di 80A del mio EVGA G2 1000W? 😀
Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro
Predator_1982
27-08-2020, 09:57
Accade sempre ad ogni lancio di nuove gpu, per poi scoprire che si gira addirittura larghi, addirittura si cambia pure piattaforma.. normale amministrazione:D
Io ho 70A sulla 12v single rail, con un i9 9900k direi che sono OK:D
Tanto una volta fatta una curva su Af (volt/freq) sará ben distante dai 300w di assorbimento (solo gpu)
già infatti, in effetti le preoccupazioni sono le stesse ad ogni lancio. :D
Si parte dagli alimentatori e si arriva alla CPU che fa da collo di bottiglia.. Le schede video smuovono l'economia IT :D
Crysis90
27-08-2020, 09:57
secondo me non è proprio verissimo. Probabilmente è anche una scelta aziendale, considerando che a differenza dei verdi hanno da pensare anche ai reparti che sviluppano le CPU.
La 5700XT, resta comunque in generale un'ottima scheda e rdna2 (almeno sulla carta) non è per niente malaccio. Semplicemente si concentrano sul segmento che tira più soldi...li concorrenza la fanno.
Evidentemente a loro, del fatto che Nvidia detenga lo scettro del "l'abbiamo più grosso", interessa fino ad un certo punto.
Strategie commerciali differenti ma, evidentemente, funzionanti.
Se continui a perdere fette di mercato, non puoi definire le tue scelte commerciali come funzionanti.
Il segmento che tira più soldi è quello delle fasce più alte, perchè non essendoci concorrenza i prezzi sono abnormemente alti e, quindi, lo sono anche i margini.
Nelle fasce dove le vendite sono maggiori, tipo 5700 XT, c'è parecchia più concorrenza, i margini sono molto più risicati.
La questione del "chi ce l'ha più grosso" è meramente una questione di immagine, ma che a sua volta (come dimostrano i dati) traina le vendite anche sulle fasce inferiori.
Se ad AMD non interessa, allora che smettano.
Non ci guadagnano nulla, o comunque ci guadagnano giusto le briciole che gli lascia NVidia.
Al mercato serve un concorrente con le spalle larghe, che possa rivaleggiare e portare innovazione e concorrenza, non un concorrente minore che sta lì per hobby giusto perchè ha una divisione graphic.
Come ho detto più volte, siamo esattamente nella stessa situazione in cui eravamo a lato CPU fino a Febbraio 2017, dove nel mercato c'era un player gigante e dominante (Intel) un player minore (sempre AMD) che subiva in tutto e per tutto causa mancanza di prodotti prestanti, con la risultante che un quad-core lo pagavi 1000 euro, mentre oggi un prodotto di quel genere lo paghi 10 volte di meno grazie al fatto che nel 2020 nel settore CPU c'è finalmente concorrenza.
Due generazioni (più una sub-generazione) di consolle Microsoft e Sony con hardware all AMD ti sembra nulla??
Milioni e milioni di pezzi.
:doh:
edit: mezzo miliardo di gpu AMD consegnate fra il 2013 e il 2019....
https://www.hwupgrade.it/news/skvideo/amd-oltre-mezzo-miliardo-di-gpu-consegnate-in-7-anni_89816.html
Primo: nessuno ha mai parlato del settore console, quindi non c'entra nulla.
Secondo: anche lì i margini sono bassi, vuoi mettere i margini che un'azienda può avere vendendo una VGA sopra i 600 euro/dollari con un chip che invece viene venduto ad un'altra azienda (Sony, Microsoft) a 2 spiccioli? :boh: :boh:
Predator_1982
27-08-2020, 09:57
Ne metti due a stock LOL:sofico: :sofico: :sofico:
e ci attacchi pure un ventilatore
ninja750
27-08-2020, 09:58
Sempre più vicini al monopolio.
E i prezzi che continuano ad aumentare ne sono la triste conseguenza.
la scelta è sempre libera, se JHH prezza alto e tutti comprano ugualmente la situazione è figlia degli utenti finali non vedo perchè lamentarsi, come leggi in questo thread c'è gente che comprerà al day1 a prescindere dalle prestazioni e dal prezzo
AMD in questo ultimo anno compete con miglior prezzo/perf fino alla 2070s lasciando scoperte solo 2080s e 2080ti eppure nvidia vende di più anche e soprattutto nelle fasce sotto quindi non vedo perchè dovrebbe abbassare i prezzi: se vende fa bene a continuare in questo modo, o farebbe bene addirittura ad alzare i prezzi ulteriormente (fossi in JHH sarei ancora più spudorato)
Black"SLI"jack
27-08-2020, 09:59
io prima di rompermi la testa, aspetterei di capire effettivamente e realmente cosa richiederanno le varie schede. mi pare che ci sia anche parecchia "ansia"(chiamiamola in questo modo) che soprattutto nelle ultime settimane è andata ad aumentare. anche la questione dell'alimentatore/connettore 12pin, vediamo cosa proporranno i vari oem, se 2 x 8pin, 3 x 8pin in base alla gpu annessa.
in tempi non sospetti, avevo sostituito in via precauzionale l'evga platinum 1200w p2 (probabilmente difettoso, ma devo ancora indagare a fondo) con un seasonic prime 1300w platinum, quindi in ogni caso a livello di watt e ampere (non le gpu :asd:) sono decisamente tranquillo e per i cavi sleevati vediamo, spero solo di trovare nel caso connettore e pin (la nuova versione 12 pin) per farmi la prolunga come si deve, soprattutto cavo di alta qualità e non quello spesso usato nelle prolunghe commerciali.
Thunder-74
27-08-2020, 10:03
Dici? Finora non ho avuto problemi e il mio sistema ciuccia 600w in full load.
Controllo sempre i voltaggi su hwinfo ed è tutto ok.
più che altro controllerei se il cavo tende a scaldare... ripeto una mia fissa quella di non usare prolunghe e di usare cavi "certificati". Ho preso direttamente da EVGA quelli sleevati per il modello in possesso proprio per essere tranquillo. Comunque molti utilizzano prolunghe tranquillamente e delle più svariate marche... non vorrei averti messo paranoie ;)
E già, mi sa proprio che sono condivisi sulla 12V4 perché c'è scritto sul manuale che quella eroga 40W.
40A stanno sul 12V4 e altri 40A stanno sul 12V3.
Quindi 40A sono condivisi fra CPU e GPU.
Mi sa che dovrò cambiare ali... ma a questo punto quale prendo come ali da 1000W?
Ho un HX1200 della corsair del 2018 su un altro PC, devo vedere se quello va bene, uno nuovo non so sinceramente che modello prendere.
Aspetta a cambiare. Primo perché hai un signor Ali, molto meglio di tanti altri e secondo aspettiamo cosa dicono in concreto di Ampere.
Qualora volessi/dovessi cambiare, io andrei di single rail da 1000/1200W per farlo lavorare ad un carico del 50% (più efficienza e più vita per l'ali). Valuta gli EVGA, sono ottimi e ti danno 10 anni di garanzia, oltre ad un'assistenza post vendita pari ad Amazon ;)
Predator_1982
27-08-2020, 10:04
La questione del "chi ce l'ha più grosso" è meramente una questione di immagine, ma che a sua volta (come dimostrano i dati) traina le vendite anche sulle fasce inferiori.
Se ad AMD non interessa, allora che smettano.
Non ci guadagnano nulla, o comunque ci guadagnano giusto le briciole che gli lascia NVidia.
Al mercato serve un concorrente con le spalle larghe, che possa rivaleggiare e portare innovazione e concorrenza, non un concorrente minore che sta lì per hobby giusto perchè ha una divisione graphic.
Crysis, nessuna azienda (e sottolineo nessuna al mondo) mantiene in vita rami secchi e non produttivi. Se AMD mantiene questa strategia stanne certo che ha i suoi guadagni.
Il mondo console, come scritto correttamente da qualcun'altro, ne è un esempio.
AMD ci sta dimostrando oggettivamente come alla lunga, le scelte legate all'ottimizzazione del PP stiano portando frutti. RDNA2 sarà sicuramente un'architettura valida e che consentirà di piazzare ottime alternative sul mercato, ne sono certo.
Se parliamo di innovazione e concorrenza, in generale, credo che i rossi ne stiano portando tanta.
Piccolo OT : lavorando ormai da 20 anni nel settore IT di una multinazionale, non avevo mai visto un'escalation tanto forte di AMD in tutti i settori (server e workstation) come quella da un anno a questa parte.
Completato il lavoro la dove conta davvero, non c'è per nulla da escludere un ritorno in grande stile anche nell GPU consumer, e non darei per scontato che già con la nuova architettura non vedremo qualche interessante colpo di scena (che non vuol dire necessariamente avere la scheda più veloce in ogni segmento).
ultimate trip
27-08-2020, 10:07
Dici? Finora non ho avuto problemi e il mio sistema ciuccia 600w in full load.
Controllo sempre i voltaggi su hwinfo ed è tutto ok.
ma veramente così tanto? se la ti fa 300 hai altri 300 watt dal resto del sistema?
ninja750
27-08-2020, 10:15
Nelle fasce dove le vendite sono maggiori, tipo 5700 XT, c'è parecchia più concorrenza, i margini sono molto più risicati.
c'è concorrenza ma le scelte virano sempre per la maggiore sul verde, AMD più che proporre le stesse prestazioni a un prezzo minore (in quella fascia oltre 80€!) non può fare nulla
Alekos Panagulis
27-08-2020, 10:16
Se continui a perdere fette di mercato, non puoi definire le tue scelte commerciali come funzionanti.
Il segmento che tira più soldi è quello delle fasce più alte, perchè non essendoci concorrenza i prezzi sono abnormemente alti e, quindi, lo sono anche i margini.
Nelle fasce dove le vendite sono maggiori, tipo 5700 XT, c'è parecchia più concorrenza, i margini sono molto più risicati.
La questione del "chi ce l'ha più grosso" è meramente una questione di immagine, ma che a sua volta (come dimostrano i dati) traina le vendite anche sulle fasce inferiori.
Se ad AMD non interessa, allora che smettano.
Non ci guadagnano nulla, o comunque ci guadagnano giusto le briciole che gli lascia NVidia.
Al mercato serve un concorrente con le spalle larghe, che possa rivaleggiare e portare innovazione e concorrenza, non un concorrente minore che sta lì per hobby giusto perchè ha una divisione graphic.
Come ho detto più volte, siamo esattamente nella stessa situazione in cui eravamo a lato CPU fino a Febbraio 2017, dove nel mercato c'era un player gigante e dominante (Intel) un player minore (sempre AMD) che subiva in tutto e per tutto causa mancanza di prodotti prestanti, con la risultante che un quad-core lo pagavi 1000 euro, mentre oggi un prodotto di quel genere lo paghi 10 volte di meno grazie al fatto che nel 2020 nel settore CPU c'è finalmente concorrenza.
Primo: nessuno ha mai parlato del settore console, quindi non c'entra nulla.
Secondo: anche lì i margini sono bassi, vuoi mettere i margini che un'azienda può avere vendendo una VGA sopra i 600 euro/dollari con un chip che invece viene venduto ad un'altra azienda (Sony, Microsoft) a 2 spiccioli? :boh: :boh:
Primo: tu hai scritto che l'acquisizione di ATI non ha portato a nulla, quindi la mia risposta è più che coerente.
Secondo: hai per caso letto i dati riguardo alle revenues del settore gpu di AMD? Se sì, magari riportali qui. Se no, stai facendo illazioni. Legittime, per carità, ma non servono a nulla. :)
scorpion73
27-08-2020, 10:17
Aspetta a cambiare. Primo perché hai un signor Ali, molto meglio di tanti altri e secondo aspettiamo cosa dicono in concreto di Ampere.
Qualora volessi/dovessi cambiare, io andrei di single rail da 1000/1200W per farlo lavorare ad un carico del 50% (più efficienza e più vita per l'ali). Valuta gli EVGA, sono ottimi e ti danno 10 anni di garanzia, oltre ad un'assistenza post vendita pari ad Amazon ;)
Si si certamente attenderò, non ho motivo adesso per cambiare tanto per.
Però nell'ottica intanto stavo valutando sia gli EVGA che i SEASONIC, per farmi trovare pronto nel caso fosse necessario.
In particolare, per Seasonic avevo occhiato il SEASONIC PRIME GOLD 1300W, che ha 108A sulla single rail e che sta a prezzo buono perché deve uscire il PLATINUM (nuova versione), mentre per EVGA stavo vedendo il SUPERNOVA 1200, con 100A sulla single rail, ma rispetto al Seasonic sta a un centone in più.... valuterò se fosse necessario... magari mi prendo una 3080 EVGA e faccio tutto un paccotto... vediamo...
Alekos Panagulis
27-08-2020, 10:17
ma veramente così tanto? se la ti fa 300 hai altri 300 watt dal resto del sistema?
Fra cpu in OC, ram, ventole, AIO etc etc...sì, si arriva a 560-600w. Misurato con wattmeter.
Cmq la FTW3 arriva a consumare 370w, quindi il resto è intorno a 200-230w.
Crysis90
27-08-2020, 10:18
la scelta è sempre libera, se JHH prezza alto e tutti comprano ugualmente la situazione è figlia degli utenti finali...come leggi in questo thread c'è gente che comprerà al day1 a prescindere dalle prestazioni e dal prezzo
Su questo mi trovi d'accordo.
E' vero che ognuno i propri soldi è libero di spenderli (o di sprecarli) come vuole, ma finchè ci saranno quelli che comprano le cose "al buio", già 1 mese prima dell'uscita, effettivamente non ne caveremo mai le gambe.
non vedo perchè lamentarsi
Tu non ti lamenti perchè probabilmente non sei un utente che cerca sempre il massimo delle performances.
Quindi per te il problema non sussiste perchè la tua fascia target è molto più in basso, dove per tua fortuna di concorrenza ce n'è.
Io invece sono proprio quel tipo di utente esigente e mi sarei rotto le scatole di dover sempre valutare di spendere 2/300 euro in più per la top di gamma ad ogni nuova generazione. :muro:
Crysis, nessuna azienda (e sottolineo nessuna al mondo) mantiene in vita rami secchi e non produttivi.
Ah no?
Ma se AMD l'ha fatto dal 2011 al 2017, dove nel segmento CPU ci sono stati 2/3 anni dove addirittura non generavano utili, accumulavano debiti e stavano per fallire o essere acquisiti. :asd:
AMD ci sta dimostrando oggettivamente come alla lunga, le scelte legate all'ottimizzazione del PP stiano portando frutti.
Se per "portando frutti" intendi perdere quote di mercato nel settore core della divisione graphic, allora si hai ragione.
Proprio dei bei frutti. :asd:
Se parliamo di innovazione e concorrenza, in generale, credo che i rossi ne stiano portando tanta.
Ah si?
Allora, per quanto riguarda la concorrenza, ne esiste solo per quanto riguarda le fasce di prezzo sotto ai 500$.
Per il resto, di concorrenza non ce n'è.
Per quanto riguarda le innvazioni, se per innovazioni intendi il fatto che AMD tende a scopiazzare NVidia in qualsiasi cosa faccia a lato software (G-Sync con FreeSync, DLSS con FidelityFX) allora si, hai ragione anche quì.
Portano veramente tanta innovazione. :asd:
Lato hardware pure, grandi innovazioni da AMD.
E' stata proprio AMD infatti ad introdurre nel segmento desktop/consumer le prime GPU per il gaming capaci di accelerare l'elaborazione RayTracing a livello hardware. :read: :asd:
Secondo me vedete solo quello che volete vedere voi come lo volete vedere voi.
devil_mcry
27-08-2020, 10:19
c'è concorrenza ma le scelte virano sempre per la maggiore sul verde, AMD più che proporre le stesse prestazioni a un prezzo minore (in quella fascia oltre 80€!) non può fare nulla
il problema è che propone prestazioni minori ma con meno contorno, paghi meno per avere meno
nvidia oltre ad avere la suite gameworks che ti aggiungono effetti extra ora sta ricarando la dose di brutto con il dlss 2.0
arriverà sicuramente il fanboy di turno a dire si ma sono inutili bla bla bla, però intanto ci sono e amd non offre niente di questo tipo. senza considerare geforce experience che ha tutte le sue funzionalità extra oltre i profili di gioco
e soprattutto il dlss 2.0 è tantissima roba la dove è supportato ti alza la vga di 2-3 fasce di performance...
passare da intel ad amd lato cpu è facile, le prestazioni sono quelle e ci sono solo quello. lato vga semplicemente non è così.
Crysis90
27-08-2020, 10:30
Primo: tu hai scritto che l'acquisizione di ATI non ha portato a nulla, quindi la mia risposta è più che coerente.
Non penso che 15 anni fa, quando hanno acquisito ATI, l'obiettivo di AMD era di ritrovarsi nel 2020 con solo le briciole nel settore core del gaming per PC. :rolleyes:
Vendono 1 GPU su 5, alla faccia del bel risultato.
Secondo: hai per caso letto i dati riguardo alle revenues del settore gpu di AMD? Se sì, magari riportali qui. Se no, stai facendo illazioni. Legittime, per carità, ma non servono a nulla. :)
Basta guardare a quanto AMD vende quei componenti a Sony/Microsoft.
https://i.imgur.com/tNmyg89.jpg
100$ per il SoC, che comprende sia CPU che GPU.
Una scheda video viene venduta a cifre mediamente considerevolmente superiori, nel caso di NVidia anche 6/7 volte superiori (mantenendo la proporzione tra vendite ad altri player, non ai clienti retail finali che si prendono il prezzo pieno di vendita di listino).
E' sicuramente vero che produrre un TU102 costerà qualcosa di più che produrre il SoC di una PS4, ma i margini possono comunque essere almeno 5/6 volte superiori.
Se il mercato ti dice che 4 utenti su 5 acquistano una GPU NVidia, ti pare che sia un buon risultato per la divisione graphic di AMD?
O un risultato di cui essere contenti e soddisfatti, a livello di scelte commerciali e di rientri finanziari, per la dirigenza AMD?
Direi proprio di no.
Alekos Panagulis
27-08-2020, 10:34
Quelle non sono le revenues. Il costo a cui vende non dice nulla dei profitti.
Cmq a questo punto spero che tu diventi CEO di Amd, così metti un po' di ordine.
Crysis90
27-08-2020, 10:39
Il costo a cui vende non dice nulla dei profitti.
Dice quello che serve sapere, in quanto sappiamo quali sono i prezzi di vendita delle GPU.
E a fare la proporzione basta poco, non serve neanche avere il diploma.
Cmq a questo punto spero che tu diventi CEO di Amd, così metti un po' di ordine.
Effettivamente, Lisa se l'è cavata bene con Ryzen ma con la divisione graphic qualcosina gli si potrebbe contestare.
Ripeto, se un utente finale sceglie una GPU NVidia 4 volte su 5 c'è ben poco da essere contenti e soddisfatti, per chi dirige AMD.
E non si può parlare di concorrenza sleale questa volta, perchè non mi risulta che NVidia si sia mai comportata come Intel.
Al massimo, solo di meriti o di demeriti.
Predator_1982
27-08-2020, 10:46
Secondo me vedete solo quello che volete vedere voi come lo volete vedere voi.
AMD fa da sempre CPU, quello non è un ramo d'azienda...è il suo core business..un'altra cosa e dunque un'altra strategia.
Intel quindi dovrebbe chiudere in questo momento?? Su dai..
RayTracing e DLSS... a giudicare ad oggi la situazione generale, direi che per Nvidia è stato fondamentalmente una buona mossa di marketing (salvo principalmente DLSS), per AMD era semplicemente una tecnologia su cui non puntare prematuramente.
Strategie, qui non si tratta di scopiazzare... Non ci si improvvisa a questi livelli. Lo presenterà infatti con RDNA2, per lo meno nella sua derivazione più potente e forse, a questo punto, effettivamente più sfruttabile.
Che Nvidia abbia una marcia in più (come giusto che sia considerando che l'intera azienda si concentra solo su questo settore e sull'ecosistema che ha costruito intorno), è chiaro e mi sembra pure ovvio.
E già, mi sa proprio che sono condivisi sulla 12V4 perché c'è scritto sul manuale che quella eroga 40W.
40A stanno sul 12V4 e altri 40A stanno sul 12V3.
Quindi 40A sono condivisi fra CPU e GPU.
Mi sa che dovrò cambiare ali... ma a questo punto quale prendo come ali da 1000W?
Ho un HX1200 della corsair del 2018 su un altro PC, devo vedere se quello va bene, uno nuovo non so sinceramente che modello prendere.
ti fai troppi problemi. il Platimax D.F è una ottima psu quindi non ci sono motivi per cambiarla.
collega la gpu al 12V3 e 12V4 sono due linee da 40A parliamo di quasi 500w per lineea... va bene essere preoccupanti ma qua si stà raggiungendo livelli quasi ossessivi.
Crysis90
27-08-2020, 10:52
Intel quindi dovrebbe chiudere in questo momento?? Su dai..
Con quello che ha in banca Intel, ci campa altri 5 anni anche senza avere utili.
Per AMD non era così.
thunderforce83
27-08-2020, 10:54
Su questo mi trovi d'accordo.
E' vero che ognuno i propri soldi è libero di spenderli (o di sprecarli) come vuole, ma finchè ci saranno quelli che comprano le cose "al buio", già 1 mese prima dell'uscita, effettivamente non ne caveremo mai le gambe.
Tu non ti lamenti perchè probabilmente non sei un utente che cerca sempre il massimo delle performances.
Quindi per te il problema non sussiste perchè la tua fascia target è molto più in basso, dove per tua fortuna di concorrenza ce n'è.
Io invece sono proprio quel tipo di utente esigente e mi sarei rotto le scatole di dover sempre valutare di spendere 2/300 euro in più per la top di gamma ad ogni nuova generazione. :muro:
Ah no?
Ma se AMD l'ha fatto dal 2011 al 2017, dove nel segmento CPU ci sono stati 2/3 anni dove addirittura non generavano utili, accumulavano debiti e stavano per fallire o essere acquisiti. :asd:
Se per "portando frutti" intendi perdere quote di mercato nel settore core della divisione graphic, allora si hai ragione.
Proprio dei bei frutti. :asd:
Ah si?
Allora, per quanto riguarda la concorrenza, ne esiste solo per quanto riguarda le fasce di prezzo sotto ai 500$.
Per il resto, di concorrenza non ce n'è.
Per quanto riguarda le innvazioni, se per innovazioni intendi il fatto che AMD tende a scopiazzare NVidia in qualsiasi cosa faccia a lato software (G-Sync con FreeSync, DLSS con FidelityFX) allora si, hai ragione anche quì.
Portano veramente tanta innovazione. :asd:
Lato hardware pure, grandi innovazioni da AMD.
E' stata proprio AMD infatti ad introdurre nel segmento desktop/consumer le prime GPU per il gaming capaci di accelerare l'elaborazione RayTracing a livello hardware. :read: :asd:
Secondo me vedete solo quello che volete vedere voi come lo volete vedere voi.
Non penso che 15 anni fa, quando hanno acquisito ATI, l'obiettivo di AMD era di ritrovarsi nel 2020 con solo le briciole nel settore core del gaming per PC. :rolleyes:
Vendono 1 GPU su 5, alla faccia del bel risultato.
Basta guardare a quanto AMD vende quei componenti a Sony/Microsoft.
https://i.imgur.com/tNmyg89.jpg
100$ per il SoC, che comprende sia CPU che GPU.
Una scheda video viene venduta a cifre mediamente considerevolmente superiori, nel caso di NVidia anche 6/7 volte superiori (mantenendo la proporzione tra vendite ad altri player, non ai clienti retail finali che si prendono il prezzo pieno di vendita di listino).
E' sicuramente vero che produrre un TU102 costerà qualcosa di più che produrre il SoC di una PS4, ma i margini possono comunque essere almeno 5/6 volte superiori.
Se il mercato ti dice che 4 utenti su 5 acquistano una GPU NVidia, ti pare che sia un buon risultato per la divisione graphic di AMD?
O un risultato di cui essere contenti e soddisfatti, a livello di scelte commerciali e di rientri finanziari, per la dirigenza AMD?
Direi proprio di no.
Dice quello che serve sapere, in quanto sappiamo quali sono i prezzi di vendita delle GPU.
E a fare la proporzione basta poco, non serve neanche avere il diploma.
Effettivamente, Lisa se l'è cavata bene con Ryzen ma con la divisione graphic qualcosina gli si potrebbe contestare.
Ripeto, se un utente finale sceglie una GPU NVidia 4 volte su 5 c'è ben poco da essere contenti e soddisfatti, per chi dirige AMD.
E non si può parlare di concorrenza sleale questa volta, perchè non mi risulta che NVidia si sia mai comportata come Intel.
Al massimo, solo di meriti o di demeriti.
decisamente, esattamente...megaquotone in pieno:) :sofico:
AceGranger
27-08-2020, 11:03
Primo: tu hai scritto che l'acquisizione di ATI non ha portato a nulla, quindi la mia risposta è più che coerente.
Secondo: hai per caso letto i dati riguardo alle revenues del settore gpu di AMD? Se sì, magari riportali qui. Se no, stai facendo illazioni. Legittime, per carità, ma non servono a nulla. :)
purtroppo AMD lo camuffa buttandoci dentro anche Zen :ops:
guardando un po i dati dei fatturati di nVidia, il suo market share, i dati del fatturato di AMD e indicatori come quelli di Mindfactory è realistico pensare che AMD con le GPU fatturi circa 250/300 Milioni a trimestre.
Zen e Threadripper sappiamo che stravendono, quindi se quella divisione fattura solo 1,3 miliardi sappiamo anche che le GPU non stanno vendendo, seno farebbero ben altri fatturati, visto che nVidia fa 1,6 Miliardi solo con le Geforce.
albero77
27-08-2020, 11:05
ti fai troppi problemi. il Platimax D.F è una ottima psu quindi non ci motivi per cambiarla.
collega la gpu al 12V3 e 12V4 sono due linee da 40A parliamo di quasi 500w per lineea... va bene essere preoccupanti ma qua si stà raggiungendo livelli quasi ossessivi.
Ho tenuto per anni un 7700k con una 1080ti entrambi in oc con un 460w seasonic passivo...Il pericolo era il mio mestiere, ma non ho mai avuto mezzo problema. Figuramoci se mi mette pensiero un'ipotetica 3090.
E già, mi sa proprio che sono condivisi sulla 12V4 perché c'è scritto su
Ho un HX1200 della corsair del 2018 su un altro PC, devo vedere se quello va bene, uno nuovo non so sinceramente che modello prendere.
Credo proprio di si.. io con un Corsair 950 ho tenuto 6(sei) VGA AMD in mining H24 per due anni oltre a CPU RAM MB E SSD.. Alimentatori favolosi i Corsair. ;)
NVIDIA Ampere RTX "3080" e "3090" con PCB a 12 strati e backdrill.
https://www.igorslab.de/en/nvidia-ampere-rtx-3080-and3090-with-12-layer-platinum-and-backdrill-bios-als-rc2-release-candidate-pilot-production-running/
FrancoBit
27-08-2020, 11:12
Quindi col Corsair che ho in firma sul pc1 sarei proof?
Inviato dal mio Mi 9 SE utilizzando Tapatalk
Quindi col Corsair che ho in firma sul pc1 sarei proof?
Inviato dal mio Mi 9 SE utilizzando Tapatalk
con un 850w come quello direi zero problemi.
l'unica raccomandazione sarebbe quella di usare due cavi diversi da 8pin da collegare al convertitore 12pin
amon.akira
27-08-2020, 11:15
AMD fa da sempre CPU, quello non è un ramo d'azienda...è il suo core business..un'altra cosa e dunque un'altra strategia.
Intel quindi dovrebbe chiudere in questo momento?? Su dai..
RayTracing e DLSS... a giudicare ad oggi la situazione generale, direi che per Nvidia è stato fondamentalmente una buona mossa di marketing (salvo principalmente DLSS), per AMD era semplicemente una tecnologia su cui non puntare prematuramente.
Strategie, qui non si tratta di scopiazzare... Non ci si improvvisa a questi livelli. Lo presenterà infatti con RDNA2, per lo meno nella sua derivazione più potente e forse, a questo punto, effettivamente più sfruttabile.
Che Nvidia abbia una marcia in più (come giusto che sia considerando che l'intera azienda si concentra solo su questo settore e sull'ecosistema che ha costruito intorno), è chiaro e mi sembra pure ovvio.
se per sfruttabile intendi come quantità di titoli ok, se per prestazioni semplicemente è in ritardo anche perchè dubito fortemente che sarà concorrenziale con ampere.
Ale55andr0
27-08-2020, 11:15
la scelta è sempre libera, se JHH prezza alto e tutti comprano ugualmente la situazione è figlia degli utenti finali non vedo perchè lamentarsi, come leggi in questo thread c'è gente che comprerà al day1 a prescindere dalle prestazioni e dal prezzo
AMD in questo ultimo anno compete con miglior prezzo/perf fino alla 2070s lasciando scoperte solo 2080s e 2080ti eppure nvidia vende di più anche e soprattutto nelle fasce sotto quindi non vedo perchè dovrebbe abbassare i prezzi: se vende fa bene a continuare in questo modo, o farebbe bene addirittura ad alzare i prezzi ulteriormente (fossi in JHH sarei ancora più spudorato)
Amen
TigerTank
27-08-2020, 11:25
secondo me vi state facendo troppi problemi, con dei signori alimentatori che avete dubito ci saranno difficoltà ad alimentare anche una singola 3090
Il problema più che altro è verificare gli alimentatori multi-rail :)
Come ho scritto sopra se MSI ha fatto anche il 650W "ottimizzato" con canali da 35A un motivo ci sarà :)
ninja750
27-08-2020, 11:31
AMD tende a scopiazzare NVidia in qualsiasi cosa faccia a lato software (G-Sync con FreeSync, DLSS con FidelityFX)
riguardo la frequenza variabile, almeno AMD ha scelto la strada gratuita e open con lo standard vesa adaptive sync
qui la porcata l'ha fatta nvidia dicendo che era necessario il costoso modulo gsync quando è stata smascherata con il famoso glitch del portatile duo e ha dovuto aprire a tutti i monitor fs le sue schede (e meno male altrimenti non le valuterei del tutto)
Raga,stò leggendo di persone che vogliono cambiare alimentatori da 1000W.
Non scherziamo perchè sarebbe ridicolo ed è in motivo in più per me per lasciare la 3090 sullo scaffale!
Ma la seconda coppia di molex Pci-ex,collegata all’adattatore da 12 Pin,non basterebbe? :D
Secondo me vi state fasciando la testa e anche un buon 850W riesce a fare tutto!
Personalmente,Nvidia stà toppando alla grande con queste richieste eccessive di potenza e dissipatori che immettono aria calda su Cpu e Ram. :rolleyes:
Non esageriamo. La Corsair fa principalmente 2 fasce: 1 fa schifo come le peggiori cineserie, l'altra ha le componenti di un'altra famosa azienda. A quel punto se si deve spendere bene meglio puntare direttamente all'altra azienda. :D
non è propio così.. di fascia ce ne sono diverse con almeno 3/4 produttori.
la serie VS (pessima) era prodotta da CWT ma la stessa CWT produceva sempre per corsair top di gamma come la serie Rmx/Hxi.
La serie Ax è tutta Seasonic , la serie axi tutta Flextronics.
ninja750
27-08-2020, 11:37
Raga,stò leggendo di persone che vogliono cambiare alimentatori da 1000W.
Non scherziamo perchè sarebbe ridicolo ed è in motivo in più per me per lasciare la 3090 sullo scaffale!
Ma la seconda coppia di molex Pci-ex,collegata all’adattatore da 12 Pin,non basterebbe? :D
Secondo me vi state fasciando la testa e anche un buon 850W riesce a fare tutto!
Personalmente,Nvidia stà toppando alla grande con queste richieste eccessive di potenza e dissipatori che immettono aria calda su Cpu e Ram. :rolleyes:
dipende :D se la lasci a PL 0% basta 850w se vuoi fare PL+30% devi giocare in fascia oraria serale :sofico:
Raga,stò leggendo di persone che vogliono cambiare alimentatori da 1000W.
Non scherziamo perchè sarebbe ridicolo ed è in motivo in più per me per lasciare la 3090 sullo scaffale!
Ma la seconda coppia di molex Pci-ex,collegata all’adattatore da 12 Pin,non basterebbe? :D
Secondo me vi state fasciando la testa e anche un buon 850W riesce a fare tutto!
Personalmente,Nvidia stà toppando alla grande con queste richieste eccessive di potenza e dissipatori che immettono aria calda su Cpu e Ram. :rolleyes:
diciamo che teoricamente non ci sono problemi ad usare un singolo cavo 8 pin che poi si sdoppia in due pci-e 8pin per alimentare all’adattatore da 12 Pin ma ovvicamente così facendo tutta la potenza passa cmq su un singolo 8pin della psu.
Se la 3090 supera i 400w di consumo io userei due cavi se invece è sui 300w/350w come le attuali 2080ti puoi tranquillamente usarne uno solo.
Crysis90
27-08-2020, 11:37
qui la porcata l'ha fatta nvidia dicendo che era necessario il costoso modulo gsync quando è stata smascherata con il famoso glitch del portatile duo e ha dovuto aprire a tutti i monitor fs le sue schede (e meno male altrimenti non le valuterei del tutto)
Io la vedo così.
NVidia è cinica e saprebbe "vendere bene" anche l'aria (un pò come i politici italiani), a volte spacciando per rivoluzioni anche delle cose minori.
AMD è come se dovesse sempre rispondere con qualcosa di gratuito solo per far vedere di essere un'azienda misericordiosa e attirarsi le simpatie dei poveracci come me che non possono spendere 1500$ per un monitor G-Sync. :asd:
Tra le due non so quale sia più ipocrita. :D
Grazie per le precisazioni Ferro ;)
Se sul Pcb della 3090 sono effettivamente presenti un connettore ad 8 pin ed un altro a 12 pin,io pensavo di collegare il primo molex Pci-ex al connettore da 8 pin e i due molex della seconda coppia Pci-ex all’adattatore (8+8 pin)da 12 pin.
Sarebbero due linee Pci-ex utilizzate...
Grazie per le precisazioni Ferro ;)
Se sul Pcb della 3090 sono effettivamente presenti un connettore ad 8 pin ed un altro a 12 pin,io pensavo di collegare il primo molex Pci-ex al connettore da 8 pin e i due molex della seconda coppia Pci-ex alladattatore (8+8 pin)da 12 pin.
Sarebbero due linee Pci-ex utilizzate...Mi sono perso un pochino di roba ma quindi la 3090 avrà un 12pin+8pin?
Da quello che mi pare di aver capito userà solo il singolo 12pin
Inviato dal mio ELE-L29 utilizzando Tapatalk
Crysis90
27-08-2020, 11:48
Da quello che mi pare di aver capito userà solo il singolo 12pin
Idem.
Nelle immagini postate ieri, sul PCB compare solo il connettore da 12 pin.
Thunder-74
27-08-2020, 11:53
Due connettori avrebbe poco senso...
Sicuramente ho capito male io allora...
Domanda cretina : se sul Pcb inserivano tre connettori da 8 Pin senza dover ricorrere al alimentatori nuovi o adattatori?
mikael84
27-08-2020, 12:08
Mi sono perso un pochino di roba ma quindi la 3090 avrà un 12pin+8pin?
Da quello che mi pare di aver capito userà solo il singolo 12pin
Inviato dal mio ELE-L29 utilizzando Tapatalk
un solo 12 pin da 6A, o 5,5 se tarato a 400w
Sicuramente ho capito male io allora...
Domanda cretina : se sul Pcb inserivano tre connettori da 8 Pin senza dover ricorrere al alimentatori nuovi o adattatori?
Era lo stesso, ma troppo ingombranti.
mikael84
27-08-2020, 12:08
edit, problemi
mikael84
27-08-2020, 12:08
edit
mikael84
27-08-2020, 12:08
edit, scusate, ma ultimamente il server, mi sta dando problemi.
amon.akira
27-08-2020, 12:11
Sicuramente ho capito male io allora...
Domanda cretina : se sul Pcb inserivano tre connettori da 8 Pin senza dover ricorrere al alimentatori nuovi o adattatori?
in passato ti davano l adattatore 2x4pin to 6pin e poi 2x6pin to 8pin oggi 2x8pin to 12pin
Il server va spesso sotto carico.
Comunque non ho capito il mio alimentatore quante A eroga sulla linea Pci-ex.
Predator_1982
27-08-2020, 12:12
Il problema più che altro è verificare gli alimentatori multi-rail :)
Come ho scritto sopra se MSI ha fatto anche il 650W "ottimizzato" con canali da 35A un motivo ci sarà :)
sicuramente, motivo n.1 : cavalcare l'onda e vendere :D
AceGranger
27-08-2020, 12:15
Personalmente,Nvidia stà toppando alla grande con queste richieste eccessive di potenza
bisognera vedere come sara il grafico dell'efficienza non il valore assoluto dei consumi
e dissipatori che immettono aria calda su Cpu e Ram. :rolleyes:
bho anche qui vorrei vedere dei test, perchè secondo me non sara un problema e, anzi, non sarebbe male avere qualche cosa di diverso rispetto alla maggior parte delle GPU attuali che sparano aria calda verso chipset e gli SSD M.2
Predator_1982
27-08-2020, 12:15
se per sfruttabile intendi come quantità di titoli ok, se per prestazioni semplicemente è in ritardo anche perchè dubito fortemente che sarà concorrenziale con ampere.
vabbè qui si aprirebbe un capitolo a parte, ma preferirei parlarne con le schede in mano ai recensori e testate sul campo...il resto son chiacchiere da bar.
Ragionevolmente parlando ti do ragione, dubito che andranno allo stesso modo, bisogna vedere però quanto di meno in percentuale e a quale prezzo, perché se il costo delle verdi sarà quello ipotizzato da molti (anche su questo attendo prima di lasciarmi andare a facili giudizi) la concorrenza ci sarà e si giocherà soprattutto sui costi oltre che sulle prestazioni pure.
Due connettori avrebbe poco senso...
Forse per la 3080 2x8pin sono ancora fattibili, considerando che con il pcie arriveresti sui 375-390w, però per il chip full minimo servirebbe 2x8+1x6.
Ma non mi farei troppi problemi, francamente non credo che modelli custom del genere mancheranno, per diversi anni abbiamo avuto gpu 2x6pin invece del singolo 8pin...
Tralasciando che chi punta alla 3070, vive sereno e felice, il problema è prettamente per questi chipponi e tutto ciò che si portano dietro...
redbaron
27-08-2020, 12:23
Rumors vari...
https://twitter.com/Avery78/status/1298819565116256256
Predator_1982
27-08-2020, 12:24
Rumors vari...
https://twitter.com/Avery78/status/1298819565116256256
non ho un account twitter...che dicono?
mikael84
27-08-2020, 12:27
vabbè qui si aprirebbe un capitolo a parte, ma preferirei parlarne con le schede in mano ai recensori e testate sul campo...il resto son chiacchiere da bar.
Ragionevolmente parlando ti do ragione, dubito che andranno allo stesso modo, bisogna vedere però quanto di meno in percentuale e a quale prezzo, perché se il costo delle verdi sarà quello ipotizzato da molti (anche su questo attendo prima di giudicare) la concorrenza ci sarà soprattutto sui costi più che sulle prestazioni pure.
Trovo quasi inquietante, che prossimi all'uscita, ci sia questo silenzio tombale.
Ora capisco la fascia medio bassa, dove uno guarda il risparmio, ma per aver consenso dagli enthusiast...niente.
Non si ha nepure la minima idea di quanto possano andare in RT, al momento si hanno dati in flops molto bassi delle console.
Forse per la 3080 2x8pin sono ancora fattibili, considerando che con il pcie arriveresti sui 375-390w, però per il chip full minimo servirebbe 2x8+1x6.
Ma non mi farei troppi problemi, francamente non credo che modelli custom del genere mancheranno, per diversi anni abbiamo avuto gpu 2x6pin invece del singolo 8pin...
Tralasciando che chi punta alla 3070, vive sereno e felice, il problema è prettamente per questi chipponi e tutto ciò che si portano dietro...
Sperando che i chip low cost della serie, si mettano a produrre dei chip personalizzati, altrimenti o 12 pin o 3x8, o anche 2x8 1 x6.
Il 60/70% usa reference, vari brand solo quelle.:)
AceGranger
27-08-2020, 12:36
Trovo quasi inquietante, che prossimi all'uscita, ci sia questo silenzio tombale.
Ora capisco la fascia medio bassa, dove uno guarda il risparmio, ma per aver consenso dagli enthusiast...niente.
Non si ha nepure la minima idea di quanto possano andare in RT, al momento si hanno dati in flops molto bassi delle console.
eh ma i recensori ce l'hanno in mano ? non sara un lancio alla Turing dove per ora nessuno ha nulla se non i produttori con il PCB e ai recensori arrivera nelle settimane a seguire ?
alla fine anche con Turing si scopri tutto al lancio, nessuno sapeva di Tensor e RT core
redbaron
27-08-2020, 12:39
non ho un account twitter...che dicono?
Neanch’io ma lo puoi aprire lo stesso ;)
Predator_1982
27-08-2020, 12:40
Trovo quasi inquietante, che prossimi all'uscita, ci sia questo silenzio tombale.
Pensavo lo stesso, ma sembra ormai esser prassi. Evidentemente, ora conviene che le reali prestazioni si sappiano il più tardi possibile per evitare contromosse del concorrente.
amon.akira
27-08-2020, 12:42
Trovo quasi inquietante, che prossimi all'uscita, ci sia questo silenzio tombale.
Ora capisco la fascia medio bassa, dove uno guarda il risparmio, ma per aver consenso dagli enthusiast...niente.
Non si ha nepure la minima idea di quanto possano andare in RT, al momento si hanno dati in flops molto bassi delle console.
oramai il dado è tratto, se avessero avuto prestazioni rt degne le avrebbero sbandierate...anche le console le vedo molto quiete da quuel punto di vista... Ma se per caso in rt la 505mm mi fa gli stessi fps della 2080ti/3070 allora sei 2anni indietro e a che costi? nn penso che le regalerà a 600euro
mikael84
27-08-2020, 12:48
eh ma i recensori ce l'hanno in mano ? non sara un lancio alla Turing dove per ora nessuno ha nulla se non i produttori con il PCB e ai recensori arrivera nelle settimane a seguire ?
alla fine anche con Turing si scopri tutto al lancio, nessuno sapeva di Tensor e RT core
Parlavo di AMD, non di ampere.
Ti butti sul mercato enthusiast, non su quello low cost.:)
Nividia si sa che verrà maggiorato, e ci ho fatto anche vari calcoli.
oramai il dado è tratto, se avessero avuto prestazioni rt degne le avrebbero sbandierate...anche le console le vedo molto quiete da quuel punto di vista... Ma se per caso in rt la 505mm mi fa gli stessi fps della 2080ti/3070 allora sei 2anni indietro e a che costi? nn penso che le regalerà a 600euro
Esatto, proprio quello intendevo. Il mercato enthusiast è esigente.
Thunder-74
27-08-2020, 12:48
Forse per la 3080 2x8pin sono ancora fattibili, considerando che con il pcie arriveresti sui 375-390w, però per il chip full minimo servirebbe 2x8+1x6.
Ma non mi farei troppi problemi, francamente non credo che modelli custom del genere mancheranno, per diversi anni abbiamo avuto gpu 2x6pin invece del singolo 8pin...
Tralasciando che chi punta alla 3070, vive sereno e felice, il problema è prettamente per questi chipponi e tutto ciò che si portano dietro...
Da quello che si è percepito p che sulle custom manterranno i classi connettori.
Per la 3090 dovrebbero essere 3 da 8pin (secondo il pcb visto). Magari per una 3080 saranno come dici tu, 2 da 8 e uno da 6.
Forse per la 3080 2x8pin sono ancora fattibili, considerando che con il pcie arriveresti sui 375-390w, però per il chip full minimo servirebbe 2x8+1x6.
Ma non mi farei troppi problemi, francamente non credo che modelli custom del genere mancheranno, per diversi anni abbiamo avuto gpu 2x6pin invece del singolo 8pin...
Tralasciando che chi punta alla 3070, vive sereno e felice, il problema è prettamente per questi chipponi e tutto ciò che si portano dietro...8pin pci-e è limitato a 150w per un discorso di spessore dei cavi e poi perché 8pin è un miglioramento del classico 6pin con l'aggiunta di due masse.
Quindi con 2x8 siamo a 300w+75w dal pci-e siamo a 375w può essere che per la 3080 siano abbastanza.
Inviato dal mio ELE-L29 utilizzando Tapatalk
Thunder-74
27-08-2020, 12:53
Be quiet! ha presentato i nuovi Ali Dark Power Pro 12 da 1200 W e 1500 W (con selettore multi/single rail), ora hanno fatto sapere che:
Stiamo anticipando il lancio della prossima generazione di schede grafiche di Nvidia e, sebbene Nvidia abbia annunciato di includere un adattatore per le proprie schede grafiche che richiedono un nuovo connettore di alimentazione a 12 pin, offriamo ai nostri clienti una soluzione aggiuntiva per utilizzare il loro alimentazione con le ultime schede grafiche Nvidia.
Questa soluzione si presenterà sotto forma di un cavo completo a 12 pin, per evitare qualsiasi resistenza aggiuntiva che potrebbe essere indotta da un adattatore, che funzionerà con tutti i nostri alimentatori modulari ad alto wattaggio.
Quindi un cavo che esce direttamente dall' ALI a 12pin..
Questo è come si presenta con attacchi a 12 pin ...
https://i.imgur.com/KxAp4bY.png
LINK (https://www.guru3d.com/news-story/be-quiet-announces-1200w-and-1500w-fully-digital-dark-power-pro-12-psu-series.html)
Arrow0309
27-08-2020, 13:11
NVIDIA Ampere RTX "3080" e "3090" con PCB a 12 strati e backdrill.
https://www.igorslab.de/en/nvidia-ampere-rtx-3080-and3090-with-12-layer-platinum-and-backdrill-bios-als-rc2-release-candidate-pilot-production-running/
Tanta roba, speriamo anche le 3080 FE :p
ninja750
27-08-2020, 13:14
eh ma i recensori ce l'hanno in mano ? non sara un lancio alla Turing dove per ora nessuno ha nulla se non i produttori con il PCB e ai recensori arrivera nelle settimane a seguire ?
alla fine anche con Turing si scopri tutto al lancio, nessuno sapeva di Tensor e RT core
con turing se non ricordo male quelli sotto NDA ricevettero le schede pochi giorni prima del lift e la possibilità di scaricare driver funzionanti solo 12h o 24h prima con allegato PDF di COME recensire la scheda :asd:
Arrow0309
27-08-2020, 13:14
Be quiet! ha presentato i nuovi Ali Dark Power Pro 12 da 1200 W e 1500 W (con selettore multi/single rail), ora hanno fatto sapere che:
Stiamo anticipando il lancio della prossima generazione di schede grafiche di Nvidia e, sebbene Nvidia abbia annunciato di includere un adattatore per le proprie schede grafiche che richiedono un nuovo connettore di alimentazione a 12 pin, offriamo ai nostri clienti una soluzione aggiuntiva per utilizzare il loro alimentazione con le ultime schede grafiche Nvidia.
Questa soluzione si presenterà sotto forma di un cavo completo a 12 pin, per evitare qualsiasi resistenza aggiuntiva che potrebbe essere indotta da un adattatore, che funzionerà con tutti i nostri alimentatori modulari ad alto wattaggio.
Quindi un cavo che esce direttamente dall' ALI a 12pin..
Questo è come si presenta con attacchi a 12 pin ...
https://i.imgur.com/KxAp4bY.png
LINK (https://www.guru3d.com/news-story/be-quiet-announces-1200w-and-1500w-fully-digital-dark-power-pro-12-psu-series.html)
Io che punto sulla 3080 spero solo di trovare dei cavi diretti compatibili con il mio ali SuperFlower Titanium e con tutti i Evga G2/P2 (magari che usa due connettori sul alimentatore, non so).
In effetti con i prezzi di queste schede il "BackDrill" è quasi un obbligo :asd: :asd:
Non ho resistito...
Thunder-74
27-08-2020, 13:28
Io che punto sulla 3080 spero solo di trovare dei cavi diretti compatibili con il mio ali SuperFlower Titanium e con tutti i Evga G2/P2 (magari che usa due connettori sul alimentatore, non so).
vai tranquillo, quelli di Be Quiet! cercano di cavalcare l'onda dicendo che il loro cavo riduce qualsiasi resistenza che potrebbe essere introdotta ... si certo ;)
Predator_1982
27-08-2020, 13:30
vai tranquillo, quelli di Be Quiet! cercano di cavalcare l'onda dicendo che il loro cavo riduce qualsiasi resistenza che potrebbe essere introdotta ... si certo ;)
:D :D :D :D :D
amon.akira
27-08-2020, 13:34
In effetti con i prezzi di queste schede il "BackDrill" è quasi un obbligo :asd: :asd:
Non ho resistito...
:asd:
Thunder-74
27-08-2020, 13:34
Pin piccoli, ma cavi più cicciotti... come giusto che sia...
https://i.imgur.com/ZSo7ZKUl.jpg
https://i.imgur.com/zMhsjeZl.jpg
FONTE (https://www.techpowerup.com/271444/nvidia-ampere-12-pin-power-connector-pictured-some-more)
Pin piccoli, ma cavi più cicciotti...
https://i.imgur.com/ZSo7ZKUl.jpg
https://i.imgur.com/zMhsjeZl.jpg
FONTE (https://www.techpowerup.com/271444/nvidia-ampere-12-pin-power-connector-pictured-some-more)
lo spessore dei cavi sul 12pin è notevole.
Arrow0309
27-08-2020, 13:53
Rumors vari...
https://twitter.com/Avery78/status/1298819565116256256
This
C'é scritto, dalla 3080 in su :D :p
A sto giro mi sento che le Fe saranno piú interessanti di molte custom.
LOL
Il "pcb differente" intendevo
Ma magari saranno versioni base "reference" (tipo le 2080 ti non "A") e non le FE assolutamente.
Si, anch'io sto ammucchiando sempre più hype per la 3080 FE (per non parlare del gorilla sulle spalle). :rotfl: :rotfl:
mattxx88
27-08-2020, 14:03
che scimmia di vedere i waterblock
potrebbero venire fuori soluzioni davvero fighe
Thunder-74
27-08-2020, 14:51
intanto la Palit ha registrato 171 modelli, dalla 3060 alla 3090 con tutte le varianti (Ti, Super, H :confused: , ecc)
LINK (https://videocardz.com/newz/palit-submits-geforce-rtx-3090-rtx-3080-rtx-3070-and-rtx-3060-to-eec)
Cosa interessante è che per le 3070 e 3060 hanno registrato più varianti della liscia, Ti, Super, H, ... se fosse stato per motivi di vram, mi sarei aspettato lo stesso discorso per la 3080...
esempio della 3070:
https://i.imgur.com/CqbsLkf.png
scorpion73
27-08-2020, 15:00
Presenteranno sia la liscia che la Ti a sto punto?
Io me lo auguro perché la Ti mi interesserebbe parecchio per il mio secondo PC.
Thunder-74
27-08-2020, 15:02
Presenteranno sia la liscia che la Ti a sto punto?
Io me lo auguro perché la Ti mi interesserebbe parecchio per il mio secondo PC.
L'articolo dice che le case possono registrare tanti modelli e poi non usarli. Possibile che sia un mettere le mani avanti qualora nvidia faccia uscire una Super o una Ti. Però registrate tanti modelli e sotto modelli, vuol dire che qualcosa devono sapere di concreto
Mamma mia siete dei missili, stavo postando la news di palit... eh....
Cosa avete il dito sul tasto F5 per caso?:D :D
la fissa di avere notizie nell'ultima settimana calda :D ... difatti non sto lavorando un cippolone :fagiano:
mikael84
27-08-2020, 15:09
L'articolo dice che le case possono registrare tanti modelli e poi non usarli. Possibile che sia un mettere le mani avanti qualora nvidia faccia uscire una Super o una Ti. Però registrate tanti modelli e sotto modelli, vuol dire che qualcosa devono sapere di concreto
la fissa di avere notizie nell'ultima settimana calda :D ... difatti non sto lavorando un cippolone :fagiano:
Probabilmente è a discrezione loro la quota ram (creando due modelli).
Sulla 3080, ci sono ancora due bus da poter utilizzare e vari cc (eventuale TI).
Su GA104, ci saranno almeno 3 serie, un cut, un full ed un bel cut, più eventuale doppia densità
Idem 3060.
Sulla 3090, non hai margine, se non di ram.
Mancano solo 128cc al chip puro.
Dividere in gddr6 e x mi pare una cazzata.
Cmq, con l'arrivo di AMD, JHH tenterà di tutto.
scorpion73
27-08-2020, 15:09
L'articolo dice che le case possono registrare tanti modelli e poi non usarli. Possibile che sia un mettere le mani avanti qualora nvidia faccia uscire una Super o una Ti. Però registrate tanti modelli e sotto modelli, vuol dire che qualcosa devono sapere di concreto
Eh già, molto più di qualcosa direi..
la fissa di avere notizie nell'ultima settimana calda :D ... difatti non sto lavorando un cippolone :fagiano:
Pure io, siamo in due :D :D
scorpion73
27-08-2020, 15:12
Probabilmente è a discrezione loro la quota ram (creando due modelli).
Sulla 3080, ci sono ancora due bus da poter utilizzare e vari cc (eventuale TI).
Scusa ma i chip li tira fuori nvidia. Non credo che farà una 3080 con x cuda e poi i partner avranno i chip con x+2 cuda.
La differenza sarà solo semmai in RAM e dissipazione.
Se c'è una Ti, ci sarà anche una founders.
Su GA104, ci saranno almeno 3 serie, un cut, un full ed un bel cut, più eventuale doppia densità
Quindi mi aspetterei anche 3 founders al lancio...
AceGranger
27-08-2020, 15:12
intanto la Palit ha registrato 171 modelli, dalla 3060 alla 3090 con tutte le varianti (Ti, Super, H :confused: , ecc)
LINK (https://videocardz.com/newz/palit-submits-geforce-rtx-3090-rtx-3080-rtx-3070-and-rtx-3060-to-eec)
Cosa interessante è che per le 3070 e 3060 hanno registrato più varianti della liscia, Ti, Super, H, ... se fosse stato per motivi di vram, mi sarei aspettato lo stesso discorso per la 3080...
esempio della 3070:
https://i.imgur.com/CqbsLkf.png
171 :mbe:
l'hanno toccata piano...
presumo che alcuni codici siano stesse GPU su mercati differenti; 16 modelli solo per le 3090 mi sembrano senza senso
Thunder-74
27-08-2020, 15:13
Probabilmente è a discrezione loro la quota ram (creando due modelli).
Sulla 3080, ci sono ancora due bus da poter utilizzare e vari cc (eventuale TI).
Su GA104, ci saranno almeno 3 serie, un cut, un full ed un bel cut, più eventuale doppia densità
Idem 3060.
Sulla 3090, non hai margine, se non di ram.
Mancano solo 128cc al chip puro.
Dividere in gddr6 e x mi pare una cazzata.
Cmq, con l'arrivo di AMD, JHH tenterà di tutto.
Certo che registrare 16 modelli di 3090... hanno previsto anche una possibile 3090Ti... della serie "melius abundare quam deficere" :D
amon.akira
27-08-2020, 15:14
secondo me 3080 10gb e 20gb ci saranno da subito
Thunder-74
27-08-2020, 15:15
la nostra speranza è quella che possano far chiarezza fin da subito, ma dubito fortemente che "giacchino nero" canti senza mazzate...
AceGranger
27-08-2020, 15:16
Certo che registrare 16 modelli di 3090... hanno previsto anche una possibile 3090Ti... della serie "melius abundare quam deficere" :D
eh ma orca, pure esistesse la 3090Ti cosa fanno, 8 modelli per una e 8 modelli per l'altra ?
son tanti comunque
Thunder-74
27-08-2020, 15:17
eh ma orca, pure esistesse la 3090Ti cosa fanno, 8 modelli per una e 8 modelli per l'altra ?
son tanti comunque
può essere che nvidia è stata talmente vaga anche con loro, che veramente nel dubbio, hanno registrato a fuffa tutti questi modelli...
Ad esempio hanno previsto 4 modelli di 3090 liscia, 4 di Ti , 4 di Super e 4 di H che non si capisce cosa sia (hydro?) ed esce la Ti, dubito che possa uscire una Super... su cosa lavorano, come giustamente diceva prima Mike...
AceGranger
27-08-2020, 15:19
può essere che nvidia è stata talmente vaga anche con loro, che veramente nel dubbio, hanno registrato a fuffa tutti questi modelli...
bho è spiazzante, nel senso, secondo quella tabella dovrebbero esserci la 3090, 3090 Super, 3090Ti e 3090 H che non si sa cosa sia, e per ogni modello ben 4 varianti; son troppe dai.
mikael84
27-08-2020, 15:20
Scusa ma i chip li tira fuori nvidia. Non credo che farà una 3080 con x cuda e poi i partner avranno i chip con x+2 cuda.
La differenza sarà solo semmai in RAM e dissipazione.
Se c'è una Ti, ci sarà anche una founders.
I chip li fa nvidia, ma chi ti dice che non ci siano altre varianti, come una TI, una super?
Quindi mi aspetterei anche 3 founders al lancio...
Per ora ci saranno solo due versioni di GA102, ma in seguito...
Certo che registrare 16 modelli di 3090... hanno previsto anche una possibile 3090Ti... della serie "melius abundare quam deficere" :D
Mah, chissà quanti modelli ci saranno realmente.:p Tra 2080/s e 2080ti erano 11.
Da capire bene, anche la situazione dei chip Bin e non bin.
scorpion73
27-08-2020, 15:21
A meno che le lisce siano i modelli con meno memoria e le Ti quelli con più memoria.
Che ne so:
3080 - 10GB
3080Ti - 20GB
3090 - 12GB
3090Ti - 24GB
Però per la 3070 mi aspetto sia un modello full che uno cut, non mi aspetto solo il cut.
mikael84
27-08-2020, 15:22
A meno che le lisce siano i modelli con meno memoria e le Ti quelli con più memoria.
Che ne so:
3080 - 10GB
3080Ti - 20GB
3090 - 12GB
3090Ti - 16GB
Però per la 3070 mi aspetto sia un modello full che uno cut, non mi aspetto solo il cut.
16 non si può fare per bus.
redbaron
27-08-2020, 15:24
A meno che le lisce siano i modelli con meno memoria e le Ti quelli con più memoria.
Che ne so:
3080 - 10GB
3080Ti - 20GB
3090 - 12GB
3090Ti - 24GB
Però per la 3070 mi aspetto sia un modello full che uno cut, non mi aspetto solo il cut.
Tra una 3080 con 10 e una con 20gb cosa cambierebbe in termini di prestazioni?
Thunder-74
27-08-2020, 15:25
Tra una 3080 con 10 e una con 20gb cosa cambierebbe in termini di prestazioni?
nulla, solo stuttering se saturi i 10gb rispetto alla 20gb.. ma non è così semplice che avvenga.. ad oggi...
scorpion73
27-08-2020, 15:26
16 non si può fare per bus.
errore di battitura.
mikael84
27-08-2020, 15:27
può essere che nvidia è stata talmente vaga anche con loro, che veramente nel dubbio, hanno registrato a fuffa tutti questi modelli...
Ad esempio hanno previsto 4 modelli di 3090 liscia, 4 di Ti , 4 di Super e 4 di H che non si capisce cosa sia (hydro?) ed esce la Ti, dubito che possa uscire una Super... su cosa lavorano, come giustamente diceva prima Mike...
Ci sarà un pò di casino cmq, sulle ram, sui chip bin (A non A), bios pompati (samsung tende a piombare).
Anche le memorie, Micron sarà in grado di soddisfare tutti questi prodotti? Perchè Samsung non risulta abbia tali memorie, e la collaborazione di nvidia è con Micron.
MSI pare ne abbia registrato 29
redbaron
27-08-2020, 15:35
nulla, solo stuttering se saturi i 10gb rispetto alla 20gb.. ma non è così semplice che avvenga.. ad oggi...
Piuttosto ci vorrebbe una 3090 da 12 allora...
Crysis90
27-08-2020, 16:17
Piuttosto ci vorrebbe una 3090 da 12 allora...
Esatto.
Sappiamo tutti che quei 24 Gb non verranno neanche minimamente sfruttati nella loro totalità. :rolleyes:
scorpion73
27-08-2020, 16:20
Esatto.
Sappiamo tutti che quei 24 Gb non verranno neanche minimamente sfruttati nella loro totalità. :rolleyes:
E si. Una 3090 da 12GB potrebbe essere oggetto di seria valutazione.
Quella da 24GB manco mi passa nell'anticamera anche solo di pensarci a spendere un boato per un mucchio di ram che non serve a niente o quasi.
Ale55andr0
27-08-2020, 16:29
Una 2080 in versione Ampere, stessi cc/rop's/tmu, ma IPC (cache) e BW maggiorate.
https://www.youtube.com/watch?v=L-WlMqV_dvk
Cmq, con l'arrivo di AMD, JHH tenterà di tutto.
Ma ndò voi che arrivi AMD che a oggi non sanno nemmeno loro se i chip delle console sono rdna 2, 1.5 o chessò io
SPARTANO93
27-08-2020, 16:40
Il mio alimentatore xfx ProSeries 550w ce la farà secondo voi ad alimentare una rtx 3070 o 3080? Come connettori di alimentazione ha un 6+2 ed un 6 pin, sul 12V ha 44A e la nuova scheda video la affiencherei sempre al mio ryzen 3600 che consuma poco, il problema è se tutte avessero minimo 2 pin da 8... non so se potrei utilizzare adattatori con altri connettori
Inviato dal mio SM-G973F utilizzando Tapatalk
mikael84
27-08-2020, 16:59
E si. Una 3090 da 12GB potrebbe essere oggetto di seria valutazione.
Quella da 24GB manco mi passa nell'anticamera anche solo di pensarci a spendere un boato per un mucchio di ram che non serve a niente o quasi.
Un GPC non è collegato, l'avessero fatto, mettevano 14gb e buona notte alla doppia densità.
Cmq, è da 8 mesi che parlano di tecnologie come tensor compression, nvcache, se implementate 12gb sono ottimi, ma anche senza di questi.
https://www.youtube.com/watch?v=L-WlMqV_dvk
:p
Anche la 3080 ha le stesse specifiche della 2080ti, con 8 rop's in meno, però...
Ma ndò voi che arrivi AMD che a oggi non sanno nemmeno loro se i chip delle console sono rdna 2, 1.5 o chessò io
Se con un 505mm2 a 7nm P,+ non se ne escono con qualcosa di buono, sulla fascia alta, è meglio neppure provarci più, e lasciare tutto ad nvidia o ad intel, che almeno un progetto ce l'ha.
Il mio alimentatore xfx ProSeries 550w ce la farà secondo voi ad alimentare una rtx 3070 o 3080? Come connettori di alimentazione ha un 6+2 ed un 6 pin, sul 12V ha 44A e la nuova scheda video la affiencherei sempre al mio ryzen 3600 che consuma poco, il problema è se tutte avessero minimo 2 pin da 8... non so se potrei utilizzare adattatori con altri connettori
Inviato dal mio SM-G973F utilizzando Tapatalk
Senza voler polemizzare, ma, non riuscirò mai a capire, perchè un gamer di fascia media, deve prendere questi alimentatori così piccoli.
Io ti consiglierei di prenderne uno decente e fare una scelta.
Altrimenti, devi sperare in delle 3070 con 1x8 ed 1x6 (potrebbero esserci).;)
Sì ma dove la tua (e anche mia) 1080ti occupa 6 giga in game, una 3080 (come gia le rtx) ne occuperà meno... Senza contare la velocità più sostenuta rispetto alla vram montata sulle pascal. E non stiamo a mettere in mezzo raytracing e dlss che le nostre vedono col binocolo. Se c'è qualcuno che non dovrebbe lamentarsi di ampere, è chi proprio come me ha saltato le 2080ti o 2080 lisce.. Il salto sarà incredibile e sicuramente porterà novità non utilizzabili per noi al momento o in futuro. Dai su... Non cercate ogni volta problemi dove non ce ne sono...
Non voglio cercare problemi, cerco solo di capire se l'acquisto fatto ora valga la pena. A me non piace cambiare GPU ogni soffio di vento e preferisco tenerla finché va bene, non vorrei fare un acquisto ora che, nonostante il salto, non sia sufficiente a garantirmi qualche anno di tranquilla fruibilità.
Non è un lamento, è un dubbio, spero solo che si avrà un po' di chiarezza fra qualche giorno anche perché sto thread, ma in generale quelli sulle schede video, non riesco a seguirlo bene. Se lo guardo ogni sera mi ritrovo troppi post da leggere e diventa quasi un lavoro. :D
Francamente considerando che la 3080 non è un chip a buon mercato e con quello che si porta dietro internamente andare a risparmiare sull'alimentatore è quasi un'assurdo.
Io non andrei oltre la 3070, sopratutto se in futuro si prospetta di aggiornare il reparto cpu con un 8c/16t.
Ma già per una configurazione del genere avrei visto meglio un 650w, per adeguarsi meglio ad eventuali picchi.
SPARTANO93
27-08-2020, 17:14
Senza voler polemizzare, ma, non riuscirò mai a capire, perchè un gamer di fascia media, deve prendere questi alimentatori così piccoli.
Io ti consiglierei di prenderne uno decente e fare una scelta.
Altrimenti, devi sperare in delle 3070 con 1x8 ed 1x6 (potrebbero esserci).;)
L'idea di cambiarlo già ce l'ho in testa, ma il fatto è che adesso sono un gamer di fascia media ma questo alimentatore l'ho acquistato 8 anni fa quando avevo un PC di fascia medio/bassa, adesso ho un PC totalmente diverso ma questo alimentatore mi è sempre basato fino ad ora e me lo sono portato avanti... probabilmente con queste nuove nvidia non basterà più, ma non mi pento di aver dato 50 euro a questo alimentatore 8 anni fa dato che nonostante le ore che si è fatto vada ancora benissimo:) solo gli mancano un po' di watt quando si comincia a salire di fascia :)
Inviato dal mio SM-G973F utilizzando Tapatalk
Ton90maz
27-08-2020, 17:23
1000 watt come base?
550 watt piccolo?
Dubbi con 850 watt?
Corsair rmi fascia media?
Ma che cavolo sta succedendo qua dentro? Tra un po' ci vorrà un reattore nucleare per essere un "gamer"?
amon.akira
27-08-2020, 17:24
L'idea di cambiarlo già ce l'ho in testa, ma il fatto è che adesso sono un gamer di fascia media ma questo alimentatore l'ho acquistato 8 anni fa quando avevo un PC di fascia medio/bassa, adesso ho un PC totalmente diverso ma questo alimentatore mi è sempre basato fino ad ora e me lo sono portato avanti... probabilmente con queste nuove nvidia non basterà più, ma non mi pento di aver dato 50 euro a questo alimentatore 8 anni fa dato che nonostante le ore che si è fatto vada ancora benissimo:) solo gli mancano un po' di watt quando si comincia a salire di fascia :)
Inviato dal mio SM-G973F utilizzando Tapatalk
anche io avevo la 1080gaming x e mi arrivava ricordo un 260-280w quindi con la 3070 sei piu o meno li, certo un 750 in quella fascia sarebbe meglio.
Non voglio cercare problemi, cerco solo di capire se l'acquisto fatto ora valga la pena. A me non piace cambiare GPU ogni soffio di vento e preferisco tenerla finché va bene, non vorrei fare un acquisto ora che, nonostante il salto, non sia sufficiente a garantirmi qualche anno di tranquilla fruibilità.
Non è un lamento, è un dubbio, spero solo che si avrà un po' di chiarezza fra qualche giorno anche perché sto thread, ma in generale quelli sulle schede video, non riesco a seguirlo bene. Se lo guardo ogni sera mi ritrovo troppi post da leggere e diventa quasi un lavoro. :D
si ma non è che se esce la 3090ti con 5376cc vs i 5248cc di colpo la "tua" è obsoleta...quanto credi che faccia in piu? già si è detto che tra 3080 4352cc vs 3090 ci sarà dal 15 al 20% a seconda dei clock sostenuti...la vram non ti da prestazioni in piu.
1000 watt come base?
550 watt piccolo?
Dubbi con 850 watt?
Corsair rmi fascia media?
Ma che cavolo sta succedendo qua dentro? Tra un po' ci vorrà un reattore nucleare per essere un "gamer"?
Se si sta valutando GA102 un 550w è sottodimensionato...
OrazioOC
27-08-2020, 17:27
Se si sta valutando GA102 un 550w è sottodimensionato...
Non penso, forse con la 3090, o forse se si ha un 9900k sparato a 5ghz con dei voltaggi non da cpu fortunata, ma una 3080 è prevedibile che rientri nei soliti 250w.
amon.akira
27-08-2020, 17:31
Si, se ti fai un pc top, con 10900k oc e 3090 oc, un buon 1000 é la base ci tiri tutto e bene, non metterei di certo un 750w.
550w é poco per una 3080, avrá un tpd superiore ai 300w.
Non vedo nulla di strano, se poi volete avere l'alimentatore al 90% del carico con la ventola come un boeing 747 in decollo, fate pure XD
ha un ryzen 3600 con un ipotetica 3070...ed avendo già sotto una 1080 non dovrebbe cambiargli nulla.
ha un ryzen 3600 con un ipotetica 3070...ed avendo già sotto una 1080 non dovrebbe cambiargli nulla.
Infatti con la 3070 concordo che non dovrebbe avere problemi, anche nel caso aggiornerà in futuro la cpu con un 8c/16t con i ryzen 4000.
Ma già con la 3080 che si basa su GA102 che di suo si porta tantissimi collegamenti dietro, eviterei su un 550w...
SPARTANO93
27-08-2020, 17:37
Allora nel caso sceglierò la 3080 cambierò anche l'alimentatore mentre se prendo la 3070 tengo questo 550w, dovrò aspettare i prezzi per decidere
Inviato dal mio SM-G973F utilizzando Tapatalk
FrancoBit
27-08-2020, 17:43
Va anche considerato che col passare degli anni gli alimentatori perdono un bel po' di efficienza
Inviato dal mio Mi 9 SE utilizzando Tapatalk
maxmix65
27-08-2020, 17:47
Va anche considerato che col passare degli anni gli alimentatori perdono un bel po' di efficienza
Inviato dal mio Mi 9 SE utilizzando Tapatalk
https://i.postimg.cc/bSHB1xt9/ukra.jpg (https://postimg.cc/bSHB1xt9)
Su telegram le battaglie che ho fatto conto i mulini a vento....gente sapientona che insisteva per mesi mesi e mesi...basta un 500-550w di ottima fattura
ed io che insistevo pigliatevi almeno un 750w .... e vabbe' ma so spariti da qualche giorno a sta parte...mmmm chissa perche'
fafathebest
27-08-2020, 17:50
Io ho un 730w che è rimasto per anni a "riposo" con una 1070... è ora che si dia una bella svegliata con una 3080 :D
Inviato dal mio GM1900 utilizzando Tapatalk
mikael84
27-08-2020, 17:52
1000 watt come base?
550 watt piccolo?
Dubbi con 850 watt?
Corsair rmi fascia media?
Ma che cavolo sta succedendo qua dentro? Tra un po' ci vorrà un reattore nucleare per essere un "gamer"?
Per una GPU da 320watt di + un 10/20% di PL non è proprio il massimo.
Inoltre dove lo colleghi il JHH adapter. Ha un cavetto da 8 ed uno da 6, o una custom con 3x8 pin....:)
Allora nel caso sceglierò la 3080 cambierò anche l'alimentatore mentre se prendo la 3070 tengo questo 550w, dovrò aspettare i prezzi per decidere
Inviato dal mio SM-G973F utilizzando Tapatalk
Si è l'unica soluzione, sopratutto ora che punti a fasce alte. Altrimenti devi sperare nelle 3070, che in ogni caso, saranno molto valide.:)
terranux
27-08-2020, 17:54
1000 watt come base?
550 watt piccolo?
Dubbi con 850 watt?
Corsair rmi fascia media?
Ma che cavolo sta succedendo qua dentro? Tra un po' ci vorrà un reattore nucleare per essere un "gamer"?
ti ricordi il periodo dei 1200w?
TigerTank
27-08-2020, 17:54
che scimmia di vedere i waterblock
potrebbero venire fuori soluzioni davvero fighe
O intricati e ancora più costosi, a seconda di come sarà effettivamente il pcb e relativi "hot spot" da raffreddare :D
Se devono inventarsi un sistema per far girare liquido da entrambi i lati...2 wubbi a panino! :sofico:
vai tranquillo, quelli di Be Quiet! cercano di cavalcare l'onda dicendo che il loro cavo riduce qualsiasi resistenza che potrebbe essere introdotta ... si certo ;)
Pfffffff eretico! Con quel cavo nativo in Cyberpunk avrai un bonus +2 sul danno con armi elettriche :cool:
mikael84
27-08-2020, 17:57
Su telegram le battaglie che ho fatto conto i mulini a vento....gente sapientona che insisteva per mesi mesi e mesi...basta un 500-550w di ottima fattura
ed io che insistevo pigliatevi almeno un 750w .... e vabbe' ma so spariti da qualche giorno a sta parte...mmmm chissa perche'
Almeno ora, si parte da Ali buoni, mi ricordo i tempi di questi e GPU multifase top.
https://www.youtube.com/watch?v=f6snWfd1v7M
Pfffffff eretico! Con quel cavo nativo in Cyberpunk avrai un bonus +2 sul danno con armi elettriche :cool:
Il JHH adapter, ne son sicuro farà cambiare Ali a molti, ed i vari brand ringraziano. :)
Andy1111
27-08-2020, 18:08
Ma alla fine in bundle cosa avranno intenzione di darci? un adattatore corto da 2*8 pin a 12 pin, oppure il cavo completo che parte dal psu?
Nel primo caso non avrebbe senso, visto che unge da prolunga/adattatore dei cavi a 8 pin..
La seconda a che hai detto da 2x8pin a 12 lunghezza 750mm
https://www.tomshw.it/images/images/2020/08/nvidia-new-12-pin-power-connector-110002.1920x1080.jpg
mikael84
27-08-2020, 18:12
Ma alla fine in bundle cosa avranno intenzione di darci? un adattatore corto da 2*8 pin a 12 pin, oppure il cavo completo che parte dal psu?
Nel primo caso non avrebbe senso, visto che funge da prolunga/adattatore dei cavi a 8 pin..
Cavo completo.
Sempre se lo mette in bundle, o devi richiederlo alla casa del tuo ALI tu.
CrazyDog
27-08-2020, 18:14
Ma alla fine in bundle cosa avranno intenzione di darci? un adattatore corto da 2*8 pin a 12 pin, oppure il cavo completo che parte dal psu?
Nel primo caso non avrebbe senso, visto che funge da prolunga/adattatore dei cavi a 8 pin..
La seconda a che hai detto da 2x8pin a 12 lunghezza 750mm
https://www.tomshw.it/images/images/2020/08/nvidia-new-12-pin-power-connector-110002.1920x1080.jpg
Cavo completo.
Sempre se lo mette in bundle, o devi richiederlo alla casa del tuo ALI tu.
come fanno a dare un cavo completo se si tratta di un bundle con la scheda video, deve per forza essere un adattatore universale che andrà bene a tutti non potrebbero dare un cavo completo che va solo con chi ha un modello specifico di PSU, i cavi modulari sul lato alimentatore non sono tutti uguali, e chi non ha un modulare?
quel cavo in foto è evidente che è di Seasonic, fatto per i loro alimentatori, non sarà quello in dotazione con le schede NVIDIA
https://i.postimg.cc/bSHB1xt9/ukra.jpg (https://postimg.cc/bSHB1xt9)
Su telegram le battaglie che ho fatto conto i mulini a vento....gente sapientona che insisteva per mesi mesi e mesi...basta un 500-550w di ottima fattura
ed io che insistevo pigliatevi almeno un 750w .... e vabbe' ma so spariti da qualche giorno a sta parte...mmmm chissa perche'
sì ok, ma qui si legge di chi va in crisi/ mille dubbi e sente il bisogno di cambiare ali da 850-1000W ed è una cosa che fa altrettanto ridere
OrazioOC
27-08-2020, 18:20
sì ok, ma qui si legge di chi va in crisi/ mille dubbi e sente il bisogno di cambiare ali da 850-1000W ed è una cosa che fa altrettanto ridere
Pensa le risate poi se il livello dei tdp a parità di fascia rimangono quelli attuali. :asd:
AceGranger
27-08-2020, 18:20
come fanno a dare un cavo completo se si tratta di un bundle con la scheda video, deve per forza essere un adattatore universale che andrà bene a tutti non potrebbero dare un cavo completo che va solo con chi ha un modello specifico di PSU, i cavi modulari sul lato alimentatore non sono tutti uguali, e chi non ha un modulare?
quel cavo in foto è evidente che è di Seasonic, fatto per i loro alimentatori, non sarà quello in dotazione con le schede NVIDIA
ma infatti quello di nVidia avra sicuramente i 2 8pin femmina e poi il 12 maschio.
quello di Seasonic ovviamene è meglio perchè hai una giuntura in meno.
mikael84
27-08-2020, 18:22
edit
Andy1111
27-08-2020, 18:22
come fanno a dare un cavo completo se si tratta di un bundle con la scheda video, deve per forza essere un adattatore universale che andrà bene a tutti non potrebbero dare un cavo completo che va solo con chi ha un modello specifico di PSU, i cavi modulari sul lato alimentatore non sono tutti uguali, e chi non ha un modulare?
quel cavo in foto è evidente che è di Seasonic, fatto per i loro alimentatori, non sarà quello in dotazione con le schede NVIDIA
Ma guarda la foto c'è scritto chiaramente Nvidia 12P
https://www.anandtech.com/show/16038/nvidia-confirms-12pin-gpu-power-connector
TigerTank
27-08-2020, 18:23
ma infatti quello di nVidia avra sicuramente i 2 8pin femmina e poi il 12 maschio.
quello di Seasonic ovviamene è meglio perchè hai una giuntura in meno.
Non ci voglio pensare. Ho già capito che dovrò aspettare che evga faccia il cavo apposito da integrare nel mio kit sleevato e per la mia famiglia di PSU. Magari lo metteranno come opzione di scelta aggiuntiva acquistando una Ampère dal loro shop.
Disponibilità di schede e prezzi pompati permettendo :sofico:
CrazyDog
27-08-2020, 18:24
Ma guarda la foto c'è scritto chiaramente Nvidia 12P
https://www.anandtech.com/show/16038/nvidia-confirms-12pin-gpu-power-connector
perchè così si chiamerà quel connettore penso, lo useranno solo le ampere
Andy1111
27-08-2020, 18:26
Ha ragione lui, pensa chi non ha un alimentatore modulare, é costretto alla prolunga, quindi parte con i cavi 8 pin standard, per poi maggiorare la sezione dei cavi con l'adattatore a 12 pin.
Una boiata, ma é cosi..
Per chi non ha il modulare sicuramente un bello schifo
mikael84
27-08-2020, 18:26
Ha ragione lui, pensa chi non ha un alimentatore modulare, é costretto alla prolunga, quindi parte con i cavi 8 pin standard, per poi maggiorare la sezione dei cavi con l'adattatore a 12 pin.
Una boiata, ma é cosi..
Vero, ho detto pure io una cazzata, è stato sempre detto che spetta alla casa.
Predator_1982
27-08-2020, 18:27
sì ok, ma qui si legge di chi va in crisi/ mille dubbi e sente il bisogno di cambiare ali da 850-1000W ed è una cosa che fa altrettanto ridere
giusto l'anno scorso con l'upgrade a Ryzen 3700x cambiai l'alimentatore prendendo un HX750i di Corsair (180 eurozzi) full modular e digitale....non ci penso minimamente a cambiarlo.
Piuttosto, per principio, faccio crepare la scheda video :D :D
Si scherza...ma a me l'adattatore andrà più che bene.
Predator_1982
27-08-2020, 18:31
Un 8+8+6 non l'avrebbero mai fatto per le FE, questione di spazi a sto giro, il pcb é corto, organizzare un 8+8+6 é un casino IMHO, lo potrei giustificare solo per questo motivo, STOP fine per il resto é un caxata colossale, io vorrei la FE, ma non so fino a che punto lo posso tollerare, preferirei 8+8+6 di una custom.
Ci manca solo che in fase di presentazione il macaco dica che Ampere é efficiente e si alimenta con un solo connettore innovativo e rivoluzionario. LOL
perchè è il migliore pcb di sempre :D :D :D :sofico: :doh: Magari gli dedicano pure una slide ad hoc
TigerTank
27-08-2020, 18:32
Ma guarda la foto c'è scritto chiaramente Nvidia 12P
https://www.anandtech.com/show/16038/nvidia-confirms-12pin-gpu-power-connector
La dicitura dice "compatible with 8pin cables(using an included adapter)", non 8pin "PSU connectors".
Credo anch'io che in bundle mettano un 2x8 femmine-->1x12 maschio e i cavi completi da PSU a vga siano solo aftermarket dei vari produttori(come quello di Seasonic) o di terzi eventuali per ovvie questioni di compatibilità.
mikael84
27-08-2020, 18:34
La dicitura dice "compatible with 8pin cables(using an included adapter)", non 8pin "PSU connectors".
Credo anch'io che in bundle mettano un 2x8 femmine-->1x12 maschio e i cavi completi da PSU a vga siano solo aftermarket dei vari produttori(come quello di Seasonic) o di terzi eventuali per ovvie questioni di compatibilità.
Vero, mi sono incartato pure io, nonostante l'avrò ripetuto 1000 volte ieri.:doh:
Arrow0309
27-08-2020, 18:36
La dicitura dice "compatible with 8pin cables(using an included adapter)", non 8pin "PSU connectors".
Credo anch'io che in bundle mettano un 2x8 femmine-->1x12 maschio e i cavi completi da PSU a vga siano solo aftermarket dei vari produttori(come quello di Seasonic) o di terzi eventuali per ovvie questioni di compatibilità.
Quoto :cool:
TigerTank
27-08-2020, 18:39
Vero, mi sono incartato pure io, nonostante l'avrò ripetuto 1000 volte ieri.:doh:
Chissà che in quelle "economiche" non ci mettano un bell'adattatore carino con i cavi non sleevati...da sanguinamento degli occhi :asd: :sofico:
Quoto tiger, giá me lo immagino cheap con cavi neri/rossi e gialli, no dai speriamo di no, almeno averlo tutto nero é possibile?
Altrimenti ci vorrebbe questa gif da dedicare a JHH:
https://i.postimg.cc/06Gr5k2R/2020411202412301.jpg (https://postimg.cc/06Gr5k2R)
Ahahah ecco, l'ho pensato anch'io per buona parte dei modelli non "VIP".
Sarebbe il top arrivare a scegliere un modello anche per la "bellezza" dell'adattatore in bundle :asd:
terranux
27-08-2020, 18:57
https://www.reddit.com/r/nvidia/comments/h0ow4x/rtx_3080_pcb_recreation_with_hbm2e/ ma il pcb è qesto quì? a me mi fà schifo
Arrow0309
27-08-2020, 19:05
https://linustechtips.com/main/topic/1206201-stacking-multiple-rtx-3080-prototypes-air-will-pass-through-one-gpu-to-other/
E' old ma si parlava ieri
Non capisco perché le pale sono all'incontrario se deve fare il pull la posteriore :doh:
devAngnew
27-08-2020, 19:06
Ma quindi avevo ragione io che il connettore 12 pin è compatibile con 2 con. da 8 pin ? :D
si ma non è che se esce la 3090ti con 5376cc vs i 5248cc di colpo la "tua" è obsoleta...quanto credi che faccia in piu? già si è detto che tra 3080 4352cc vs 3090 ci sarà dal 15 al 20% a seconda dei clock sostenuti...la vram non ti da prestazioni in piu.
Lo so che la VRAM non mi da prestazioni in più, mi da però spazio in memoria in caso in futuro servissero più GB, inoltre progetto di utilizzarla in 4K.
Quando ho cambiato la 1080 con la 1080 Ti ho notato una bella differenza, sarà anche perché cerco delle custom belle tirate.
Se avessi avuto la 1080 liscia oggi forse avrei avuto qualche difficoltà in più visto il limite che già comincio a notare in alcuni frangenti.
Fermo restando che comunque potrebbe andare ancora avanti tranquillamente, eccetto rari casi gioco sempre indietro di una o due generazioni quindi, ad esempio, non ho ancora toccato nessun titolo con RT.
Se questa nuova next gen portasse davvero novità interessanti potrei fare un eccezione.
Il raytracing certamente ora verrà utilizzato meglio, sta nelle nuove console
Ma chissà quanto sarà pesante, feci qualche prova con la 2060 e poverina chiedeva pietà :p
Con un Antec Edge 650 la reggo una ipotetica 3090? Ho anche un 7700k.
Comunque era ovvio che con ampere si avrebbe avuto accesso a un raytracing senza problemi.
Con le 2000 era palesemente acerbo il raytracing, perdevi un botto di fps e fluidità quando lo attivavi.
Ovviamente ti creano un problema, e ti danno la soluzione!
Ho venduto la mia 2080ti, non so che fare, prendere subito la 3090 o aspettare una 3080super/ ti?
Ma tipo aspettare le recensioni e i prezzi italiani? Qui vedo un sacco di gente dare consigli come se fossero già uscite e si sapesse tutto.
Ma tipo aspettare le recensioni e i prezzi italiani? Qui vedo un sacco di gente dare consigli come se fossero già uscite e si sapesse tutto.
Eh facile a dirsi.. ma quando la scimmia ti assale son guai :asd:
fraussantin
27-08-2020, 20:04
Ma quindi avevo ragione io che il connettore 12 pin è compatibile con 2 con. da 8 pin ? :DMa dove lo avete visto l'adattatore?
devAngnew
27-08-2020, 20:08
Ma dove lo avete visto l'adattatore?
Guarda qui (//https://www.anandtech.com/show/16038/nvidia-confirms-12pin-gpu-power-connector) :D
fraussantin
27-08-2020, 20:14
Guarda qui (//https://www.anandtech.com/show/16038/nvidia-confirms-12pin-gpu-power-connector) :D
Si quello l'ho visto é l'adattatore in bundle da 2 6+2 a 1 a 12 che non ho visto
Ale55andr0
27-08-2020, 20:16
Pensa le risate poi se il livello dei tdp a parità di fascia rimangono quelli attuali. :asd:
io preferirei che a pari fascia rimangano i prezzi attuali più che il tdp :asd:
CrazyDog
27-08-2020, 20:19
Si quello l'ho visto é l'adattatore in bundle da 2 6+2 a 1 a 12 che non ho visto
quando escono le schede lo vedremo, ma le presentano l'1 settembre?
Ale55andr0
27-08-2020, 20:22
Lo so che la VRAM non mi da prestazioni in più, mi da però spazio in memoria in caso in futuro servissero più GB, inoltre progetto di utilizzarla in 4K.
mica tanto, le nuove console hanno 16giga, ovviamente non sono tutti per la gpu, ma per esempio lo stack da 10gb della series x viene definito da microsoft stessa "optimized memory for gpu", ergo è come se ti stesse dicendo che quella è la video ram. Suppongo che anche sony, coi sui 16gb destinerà alla gpu più o meno un simile quantitativo di memoria. Ergo la soglia "psicologia" di una nuova gpu che regga il passo per tutta la next gen, versioni "pro" incluse, imho parte proprio dai 10gb in su...:fagiano:
mica tanto, le nuove console hanno 16giga, ovviamente non sono tutti per la gpu, ma per esempio lo stack da 10gb della series x viene definito da microsoft stessa "optimized memory for gpu", ergo è come se ti stesse dicendo che quella è la video ram. Suppongo che anche sony, coi sui 16gb destinerà alla gpu più o meno un simile quantitativo di memoria. Ergo la soglia "psicologia" di una nuova gpu che regga il passo per tutta la next gen, versioni "pro" incluse, imho parte proprio dai 10gb in su...:fagiano:
Penso anch'io, se si parla di 4k.
Per risoluzioni inferiori 8gb li vedo ancora sufficienti. Il
IMHO
Ale55andr0
27-08-2020, 21:02
Il raytracing certamente ora verrà utilizzato meglio, sta nelle nuove console
si, ma non è l'rtx nvidia, è l'implementazione secondo AMD, della quale ad oggi si sa poco o nulla
Penso anch'io, se si parla di 4k.
Per risoluzioni inferiori 8gb li vedo ancora sufficienti. Il
IMHO
le console stesse non tireranno il vero 4k se non in qualche titolo, imho serviranno comunque per gli asset e le texture next gen
TigerTank
27-08-2020, 21:05
https://linustechtips.com/main/topic/1206201-stacking-multiple-rtx-3080-prototypes-air-will-pass-through-one-gpu-to-other/
E' old ma si parlava ieri
Non capisco perché le pale sono all'incontrario se deve fare il pull la posteriore :doh:
Lol Arrow sei di coccio! :sofico:
Perchè estrae aria con la convessità delle pale! :D
Evidentemente avranno fatto dei test e ricavato che questo tipo di ventola in quel contesto è più efficace :)
Anche per la questione testa(esterna) e base del rotore(interno). Una ventola "standard" per il pull l'avrebbero dovuta montare con la base del rotore verso l'esterno.
MrBrillio
27-08-2020, 21:42
mica tanto, le nuove console hanno 16giga, ovviamente non sono tutti per la gpu, ma per esempio lo stack da 10gb della series x viene definito da microsoft stessa "optimized memory for gpu", ergo è come se ti stesse dicendo che quella è la video ram. Suppongo che anche sony, coi sui 16gb destinerà alla gpu più o meno un simile quantitativo di memoria. Ergo la soglia "psicologia" di una nuova gpu che regga il passo per tutta la next gen, versioni "pro" incluse, imho parte proprio dai 10gb in su...:fagiano:
Tutti belli i calcoli peccato che....
9 volte su 10 le sparate dette alle porte di una nuova gen di console sono marketing al 99%..ma soprattutto quelle console dureranno anni, mentre di VGA ne vedrai almeno 3 serie per tutta la durata della "nextgen" console.
Ok speculare ragazzi, ma credere che le nuove vga non abbiano abbastanza vram perché fate i calcoli sulle scatolette... Che siete nati ieri? Tranquilli che sicuramente problemi di saturare banda non ne avremo... Ma soprattutto figuratevi se nvidia o amd non fanno i conti per il 4K. Pare di leggere i terrapiattisti da quante menate (per niente) vi state facendo in questi giorni. Speriamo di vedere qualcosa a breve perché veramente è un lamento unico sto trd ultimamente...
Ale55andr0
27-08-2020, 21:49
Tutti belli i calcoli peccato che....
9 volte su 10 le sparate dette alle porte di una nuova gen di console sono marketing al 99%..
veramente la videoram all'epoca fu quasi subito un problema con gli 8gb unificati delle console, ricordo di watch dogs ebbe proprio problemi in tal senso e dovette essere ottimizzato su PC perchè la saturava subito :asd:. E comunque la quantità di vram non c'entra con le sparate e il marketing, è fisicamente quella, ed è solo che ovvio che la maggior parte la dedichino al frame buffer essendo la cosa che ne richiede di più. Poi c'è chi come me non cambia vga "al cambiar della marea" (cit. :O) e quindi in un prodotto che deve essere longevo valuta anche queste cose non preventivando affatto di cambiare tre vga in un paio d'anni
MrBrillio
27-08-2020, 21:52
Sì ma Ale tu mi vuoi dire che l'ultima vga ti è durata 7 anni? O almeno un paio le hai cambiate?
Poi vabbhe mi parli di gioconi insomma 🤣
Sì ma Ale tu mi vuoi dire che l'ultima vga ti è durata 7 anni? O almeno un paio le hai cambiate?
Poi vabbhe mi parli di gioconi insomma ��
Dura 7, nel senso che la usa 3 anni, la vende, e poi rimane 4 anni ad aspettare la prossima :O
Scherzo eh, Alessandro :ciapet:
ultimate trip
27-08-2020, 22:03
Lo so che la VRAM non mi da prestazioni in più, mi da però spazio in memoria in caso in futuro servissero più GB, inoltre progetto di utilizzarla in 4K.
Quando ho cambiato la 1080 con la 1080 Ti ho notato una bella differenza, sarà anche perché cerco delle custom belle tirate.
Se avessi avuto la 1080 liscia oggi forse avrei avuto qualche difficoltà in più visto il limite che già comincio a notare in alcuni frangenti.
Fermo restando che comunque potrebbe andare ancora avanti tranquillamente, eccetto rari casi gioco sempre indietro di una o due generazioni quindi, ad esempio, non ho ancora toccato nessun titolo con RT.
Se questa nuova next gen portasse davvero novità interessanti potrei fare un eccezione.
l'ultimo gioco con la 1080ti per me è stato control, in qhd mai a 60 ovviamente no rt e abbassando un po' i settaggi. santo gsync per averlo cmq giocato fluido. anche su metro ha faticato.
a questo punto sta a te valutare quanto backlog ti manca anche perchè tra un po' arriva cyberpunk:)
devAngnew
27-08-2020, 22:06
Sì ma Ale tu mi vuoi dire che l'ultima vga ti è durata 7 anni? O almeno un paio le hai cambiate?
Poi vabbhe mi parli di gioconi insomma 🤣
Dimmi cosa te ne fai di una gpu che va il doppio di ps5 o xbox se sei limitato dalla Vram ? A meno di programmazione fatta apposta ti attacchi... :D
fireradeon
27-08-2020, 22:10
l'ultimo gioco con la 1080ti per me è stato control, in qhd mai a 60 ovviamente no rt e abbassando un po' i settaggi. santo gsync per averlo cmq giocato fluido. anche su metro ha faticato.
a questo punto sta a te valutare quanto backlog ti manca anche perchè tra un po' arriva cyberpunk:)
Control oltre ad essere un bellissimo gioco (a mio avviso) è anche uno di quelli che va giocato in ray tracing, diventa pesante per carità ma è una gioia per gli occhi.
ultimate trip
27-08-2020, 22:24
eh lo so infatti ce l'ho ancora installato, se prendo una 3000 un giretto lo rifaccio sicuro
amon.akira
27-08-2020, 22:24
si, ma non è l'rtx nvidia, è l'implementazione secondo AMD, della quale ad oggi si sa poco o nulla
non è che ognuno ha il suo raytracing, i calcoli sono quelli dopo c'è chi li fa fare tutti a unità dedicate e chi ripartisce il lavoro...le librerie quelle so...cos'è "la mia visione del raytracing...:asd: "
può anche essere, magari se dovesse essere troppo scadente computazionalmente quello amd potrebbero fare un setting leggero consigliato per amd, ma cmq usufruibile da tutti.
Lol Arrow sei di coccio! :sofico:
Perchè estrae aria con la convessità delle pale! :D
Evidentemente avranno fatto dei test e ricavato che questo tipo di ventola in quel contesto è più efficace :)
Anche per la questione testa(esterna) e base del rotore(interno). Una ventola "standard" per il pull l'avrebbero dovuta montare con la base del rotore verso l'esterno.
secondo me arrow è meglio se non ti prendi la founder, sennò quando ti arriva guarderai solo la ventola sopra in che senso gira XD
Dura 7, nel senso che la usa 3 anni, la vende, e poi rimane 4 anni ad aspettare la prossima :O
Scherzo eh, Alessandro :ciapet:
:asd:
fireradeon
27-08-2020, 22:26
Appunto il ray tracing quello è solo che sulle console dovrebbe essere software e non hardware come le nvidia ma potrei sbagliare.
amon.akira
27-08-2020, 22:36
Appunto il ray tracing quello è solo che sulle console dovrebbe essere software e non hardware come le nvidia ma potrei sbagliare.
no hw in quanto sono su base rdna2 almeno xsx di cui si sa di piu, solo che non svolge tutto in parallelo ma alcuni calcoli sono condivisi. poi ovviamente è da vedere su strada...ma non penso ci saranno "scappatoie".
l unica implementazione software dovremmo vederla il 18 con crysis remastered e loro cryengine su current gen console, ma sarà accelerato hw su pc e next gen.
MrBrillio
27-08-2020, 22:54
Dimmi cosa te ne fai di una gpu che va il doppio di ps5 o xbox se sei limitato dalla Vram ? A meno di programmazione fatta apposta ti attacchi... :D
Ma siete fuori a dire ste cose? Ma avete presente come girano i giochi su pc rispetto alle console? Non vi sembra un "pochino" prematuro sputare sentenze del genere?
Su pc giochi limitati rispetto alle controparti console per la vram... Questa mi mancava :D
Veramente credete che cambierà la situazione in futuro? Mah..
mikael84
27-08-2020, 23:11
veramente la videoram all'epoca fu quasi subito un problema con gli 8gb unificati delle console, ricordo di watch dogs ebbe proprio problemi in tal senso e dovette essere ottimizzato su PC perchè la saturava subito :asd:. E comunque la quantità di vram non c'entra con le sparate e il marketing, è fisicamente quella, ed è solo che ovvio che la maggior parte la dedichino al frame buffer essendo la cosa che ne richiede di più. Poi c'è chi come me non cambia vga "al cambiar della marea" (cit. :O) e quindi in un prodotto che deve essere longevo valuta anche queste cose non preventivando affatto di cambiare tre vga in un paio d'anni
Un grossissimo problema, io avevo 2 780 in SLI e 1440p, un disastro certi titoli, poi veniva gestita male da quel colabrodo.
AC unity, shadow war, FC4, WD, COD ti costringevano a scalare di texture, solo che su AC era un disastro a texture mid.
Però, in ogni caso Kepler sarebbe morto cmq.
Ora la ram è più che sufficiente, però questi bus, troppo piccoli, non ti consentono manovra, o adotti programmi di compressione, o ne devi utilizzare una quantità industriale.
la 3090 d esempio è pensata per 448bit e 14gb, la 3070 per 12gb e 384bit, ma non chiudono per troppo spazio sul die, in quanto deve portarsi dietro pure le rop's.
Dimmi cosa te ne fai di una gpu che va il doppio di ps5 o xbox se sei limitato dalla Vram ? A meno di programmazione fatta apposta ti attacchi... :D
Con questa gen, in fascia alta la ram va benissimo.
Molta ram attuale è solo allocata.
Kepler fu un caso.
non è che ognuno ha il suo raytracing, i calcoli sono quelli dopo c'è chi li fa fare tutti a unità dedicate e chi ripartisce il lavoro...le librerie quelle so...cos'è "la mia visione del raytracing...:asd: "
può anche essere, magari se dovesse essere troppo scadente computazionalmente quello amd potrebbero fare un setting leggero consigliato per amd, ma cmq usufruibile da tutti.
Però RT e RTX sono un pochino diversi. Nel senso che ok, si basano sulle stesse API, ma con RTX fai delle chiamate diverse e quindi il gioco non è automaticamente compatibile con RT agnostico.
Quanto ai settings è possibilissimo, anzi certo. Lo fanno già oggi.
amon.akira
27-08-2020, 23:24
Però RT e RTX sono un pochino diversi. Nel senso che ok, si basano sulle stesse API, ma con RTX fai delle chiamate diverse e quindi il gioco non è automaticamente compatibile con RT agnostico.
rtx è solo la sigla, RT=raytracing ed è questo che trovi nelle opzioni grafiche
rtx lo trovi sulla scheda, sulla scatola...i DICE di battlefield dissero di aver "ottimizzato" per nvidia perchè c era solo lei al momento e non escludevano ottimizzazioni per amd, però se sono entrambe sul campo non penso proprio che gli sviluppatori ottimizzino per entrambe.
infatti tantissimi chiamano rtx il raytracing sbagliando :P
rtx diciamo comprende tutte le features quali raytracing e deep learning ss
devAngnew
28-08-2020, 00:13
Ma siete fuori a dire ste cose? Ma avete presente come girano i giochi su pc rispetto alle console? Non vi sembra un "pochino" prematuro sputare sentenze del genere?
Su pc giochi limitati rispetto alle controparti console per la vram... Questa mi mancava :D
Veramente credete che cambierà la situazione in futuro? Mah..
Un grossissimo problema, io avevo 2 780 in SLI e 1440p, un disastro certi titoli, poi veniva gestita male da quel colabrodo.
AC unity, shadow war, FC4, WD, COD ti costringevano a scalare di texture, solo che su AC era un disastro a texture mid.
Però, in ogni caso Kepler sarebbe morto cmq.
Ora la ram è più che sufficiente, però questi bus, troppo piccoli, non ti consentono manovra, o adotti programmi di compressione, o ne devi utilizzare una quantità industriale.
la 3090 d esempio è pensata per 448bit e 14gb, la 3070 per 12gb e 384bit, ma non chiudono per troppo spazio sul die, in quanto deve portarsi dietro pure le rop's.
Con questa gen, in fascia alta la ram va benissimo.
Molta ram attuale è solo allocata.
Kepler fu un caso.
A me, che l'attuale gen allochi solo vram extra frega poco, atrimenti che prendo a fare una nuova gpu per usarla con titoli o altre app vecchie? Che poi anche l'ultimo batman ha dato problemi sulla vram e gtx 980 dell'epoca è costata non poco . E' bene avere la quantità giusta di vram, tanto è vero, la vram sulle next console sono "concordate" con gli sviluppatori quindi e meglio che si regolino nvidia e company con vram e nvcache o HBCC altrimenti qui e meglio tenersi la grana. :D
P.s: con la giusta quantità di vram AC:U , etc. andavano benissimo dopo le patch, con gpu con almeno 8GB.
amon.akira
28-08-2020, 00:16
A me, che l'attuale gen allochi solo vram extra frega poco, atrimenti che prendo a fare una nuova gpu per usarla con titoli o altre app vecchie? Che poi anche l'ultimo batman ha dato problemi sulla vram e gtx 980 dell'epoca è costata non poco . E' bene avere la quantità giusta di vram, tanto è vero, la vram sulle next console sono "concordate" con gli sviluppatori quindi e meglio che si regolino nvidia e company con vram e nvcache o HBCC altrimenti qui e meglio tenersi la grana. :D
certo con 16 mi sentirei al sicuro per 2anni e qui amd ci va alla grande...con nvidia faranno sicuramente la 3080 da 20gb ma chissà che differenza di prezzo avrà...io sarei orientato per quella sinceramente.
Free Gordon
28-08-2020, 00:23
Per la 3080 Un insider riferisce che il prezzo parte da 7.999 yuan o $ 1.150
Quindi come da MIA previsione del 1 Agosto avrei azzeccato in pieno i prezzi delle schede sia della 3090 che della 3080...
Mi sa che quelli di Nvidia leggono sto 3D :D :cool:
1100€ per la 3080 liscia???? :eek: :eek: :eek:
mikael84
28-08-2020, 00:25
A me, che l'attuale gen allochi solo vram extra frega poco, atrimenti che prendo a fare una nuova gpu per usarla con titoli o altre app vecchie? Che poi anche l'ultimo batman ha dato problemi sulla vram e gtx 980 dell'epoca è costata non poco . E' bene avere la quantità giusta di vram, tanto è vero, la vram sulle next console sono "concordate" con gli sviluppatori quindi e meglio che si regolino nvidia e company con vram e nvcache o HBCC altrimenti qui e meglio tenersi la grana. :D
P.s: con la giusta quantità di vram AC:U , etc. andavano benissimo dopo le patch, con gpu con almeno 8GB.
Vabbè non esageriamo ora:p
Già dalle 980 AC unity andava a meraviglia, lo stesso per gli altri menzionati.
Gli AC allocano ( diverso da usare effettivamente), dai 3,5 ai 5,5 su 1440p.
Ed ho tutto monitorato, anche quanta banda usano.
Cmq, il problema di nvidia sono i bus piccoli, troppo grossi i collegamenti, quindi o accettare una quota giusta e magari compressa, o una quantità astronomica di ram.
La questione bus verrà bypassata dal MCM.
Free Gordon
28-08-2020, 00:25
Con questa gen, in fascia alta la ram va benissimo.
Molta ram attuale è solo allocata.
Kepler fu un caso.
però se escono delle console da 12GB utilizzabili... si pongono dei problemi non banali da risolvere (come dice DevA) ;)
mikael84
28-08-2020, 00:35
però se escono delle console da 12GB utilizzabili... si pongono dei problemi non banali da risolvere (come dice DevA) ;)
Il problema è che queste schede saranno morte allora, questa gen, è un ponte.
Se sei uno che la tiene anni, c'è la doppia densità, penso venga introdotta anche con la 3080 dai partner (nvidia ha lasciato campo libero).
Altrimenti sono state annunciate (non ufficialmente) tecniche di compressione (che leverebbe tanta spazzatura in stile fury) ed nvcache (hbcc).
Per dirti con Kepler 6gb non è che andavi lontano, è bastato un TW3 con 1,5gb a farle morire, ma anche una 980ti a 12gb (titan all'epoca), su un 1440p non è di certo la ram il problema (se poi in certi giochi prende schiaffi dalla 1660) .;)
certo con 16 mi sentirei al sicuro per 2anni e qui amd ci va alla grande...con nvidia faranno sicuramente la 3080 da 20gb ma chissà che differenza di prezzo avrà...io sarei orientato per quella sinceramente.
I 512bit per le top, sarebbero sempre il best.
Con MCM dovrebbero risolvere, con 4 stack da 128bit.
Anche la 3090 è nata per i 448 bit e 14gb, ma non gli hanno collegato l'ultimo canale per 30mm2 circa.
Questo canale avrebbe portato più BW, ram, cache (utilissimi in RT) e rop's (ottimo per il 4k, sopratutto in blending).
amon.akira
28-08-2020, 00:45
indubbiamente hai ragione, scoccerebbe solo se qualche titolo per sfizio osasse con qualche qualità extra di texture...crysis remastered ha detto "new texture 8k" vedremo XD
mikael84
28-08-2020, 00:59
indubbiamente hai ragione, scoccerebbe solo se qualche titolo per sfizio osasse con qualche qualità extra di texture...crysis remastered ha detto "new texture 8k" vedremo XD
Ma è sempre lo stesso gioco pensato per console.:)
E' un pò come le texture HD di FC che ti spara la vram a mille, su un titolo pensato per una base. Non a caso i giochi ubisoft utilizzano dai 4,5 ai 5,5gb in linea agli standard console.
Cmq se vuoi tanta ram, leggevo sui rumor che le versioni da 20gb escono i primi di ottobre. Bisogna vedere quanto costerà quella ram extra.
10 gb di gddr6 costano 120$ circa, le x sono ben più care, ovviamente non so quanto possa fartele pagare nvidia o i partner.
Jeetkundo
28-08-2020, 01:12
1100 per la 3080 liscia???? :eek: :eek: :eek:Se fa un +30% raster sulla 2080ti ci può anche stare.
Inviato dal mio LYA-L09 utilizzando Tapatalk
amon.akira
28-08-2020, 01:18
Ma è sempre lo stesso gioco pensato per console.:)
E' un pò come le texture HD di FC che ti spara la vram a mille, su un titolo pensato per una base. Non a caso i giochi ubisoft utilizzano dai 4,5 ai 5,5gb in linea agli standard console.
Cmq se vuoi tanta ram, leggevo sui rumor che le versioni da 20gb escono i primi di ottobre. Bisogna vedere quanto costerà quella ram extra.
10 gb di gddr6 costano 120$ circa, le x sono ben più care, ovviamente non so quanto possa fartele pagare nvidia o i partner.
si la base è quella, poi ci aggiungiamo l rt, il pizzico di texture piu definite, il lod maggiore etc. come sempre del resto, però le texture pesano zero come calcoli ma danno tanto come qualità...esempio meglio red dead2 con tutto al minimo ma solo texture ultra vs red dead 2 tutto ultra con texture al minimo? il secondo ti ammazza il frame ma da vedere fa schifo.
red2 low texture (https://i.imgur.com/K6glHq3.png)
red2 ultra texture (https://i.imgur.com/Hq7RZZK.png)
ovviamente è un esempio extremo...la differenza magari tra ultra e high è minima...però sono dettagli gratis al netto degli fps...mancarli per poca vram farebbe storcere il naso dopo aver speso un fracco di soldi :D
Se fa un +30% raster sulla 2080ti ci può anche stare.
Inviato dal mio LYA-L09 utilizzando Tapatalk
magari con 20gb però
Ale55andr0
28-08-2020, 07:19
https://wccftech.com/nvidia-rtx-3060-gpu-palit-spotted-on-eec-for-the-first-time/
Vabbè non esageriamo ora:p
Già dalle 980 AC unity andava a meraviglia, lo stesso per gli altri menzionati.
Gli AC allocano ( diverso da usare effettivamente), dai 3,5 ai 5,5 su 1440p.
Ed ho tutto monitorato, anche quanta banda usano.
Cmq, il problema di nvidia sono i bus piccoli, troppo grossi i collegamenti, quindi o accettare una quota giusta e magari compressa, o una quantità astronomica di ram.
La questione bus verrà bypassata dal MCM.
Infatti se non fosse per il progetto MCM, le prossime GPU andavano proposte a 512bit, senza se e senza ma.
si la base è quella, poi ci aggiungiamo l rt, il pizzico di texture piu definite, il lod maggiore etc. come sempre del resto, però le texture pesano zero come calcoli ma danno tanto come qualità...esempio meglio red dead2 con tutto al minimo ma solo texture ultra vs red dead 2 tutto ultra con texture al minimo? il secondo ti ammazza il frame ma da vedere fa schifo.
red2 low texture (https://i.imgur.com/K6glHq3.png)
red2 ultra texture (https://i.imgur.com/Hq7RZZK.png)
ovviamente è un esempio extremo...la differenza magari tra ultra e high è minima...però sono dettagli gratis al netto degli fps...mancarli per poca vram farebbe storcere il naso dopo aver speso un fracco di soldi :D
magari con 20gb però
Sinceramente, io pure sulle apu ho sempre sparato le texture al massimo e poi limato il resto dei dettagli...
Il peso è irrisorio per gli fps, ma qualitativamente sono quelle che danno l'impatto visivo migliore.
Ci sono poi dettagli che come le texture pesano in vram, e questi ultimi sono il vero problema, delle volte ciucciano vram a gogò senza un salto grafico proporzionale...
Per le console sarà tutto da vedere, Xbox Series X è tarata così:
10240 MB for GPU memory / 320 bit @ 560GB/s
+3584 MB for system memory / 192 bit @ 336GB/s
+2560 MB reserved by the OS / 192 bit @ 336GB/s
PS5, ha un bus a 256Bit quindi probabilmente avrà 8GB di vram disponibili per la GPU e il resto suddivisi per il sistema e l'OS.
Quindi dubito che da qui a 4 anni, 10-12GB di vram siano problematici, anzi quando si arriverà a quel livello di dettagli o texture di alto livello, sarà la stessa potenza a non essere sufficiente e a richiedere compromessi...
Esattamente come successo con le 780ti che oggi anche in engine moderni non cambia una mazza tra una 780ti 3GB e una Titan 6GB.
1100€ per la 3080 liscia???? :eek: :eek: :eek:
se fossero veri 1.150$, diventano facilmente 1.250 euro, non 1.100 :O
La cosa forte è che molti più del prezzo paventato, si stanno lamentando di dover cambiare alimentatore piuttosto che di rifare lo sleeve dei cavi :D
La cosa davvero forte è che qua si vociferava di una scheda che andrebbe +30% della 2080ti a 800 euro! :O
ps: lo sleeve dei cavi è un problemone, eh! :sofico:
Predator_1982
28-08-2020, 07:43
La cosa forte è che molti più del prezzo paventato, si stanno lamentando di dover cambiare alimentatore piuttosto che di rifare lo sleeve dei cavi :D
Ho deciso, se questo sarà il costo della 3080 la prenderò, ma a patto che raddoppi almeno le prestazioni della 2080, altrimenti salto alla prossima generazione.
Il gioco che più attendevo del resto (Flight Simulator 2020), non fa manco uso di RT e DLSS...almeno per il momento.
Portocala
28-08-2020, 07:45
Se stanno proponendo questi prezzi può essere perchè AMD non ha schede cosi potenti e quindi tira al rialzo come con le 20x0?
Predator_1982
28-08-2020, 07:46
Se stanno proponento questi prezzi può essere perchè AMD non ha schede cosi potenti e quindi tira al rialzo come con le 20x0?
non sappiamo ancora quanto andrà forte o piano bignavi...e non credo lo sappia manco Nvidia. Certo, se si è basata sull'attuale situazione ovviamente...non può che sparare cannonate.
Se stanno proponendo questi prezzi può essere perchè AMD non ha schede cosi potenti e quindi tira al rialzo come con le 20x0?
Tecnicamente, tutti i prezzi sono speculazioni, quando usciranno le Ampere vedremo come si piazzeranno sul mercato, GA102 comunque è un chip decisamente grosso e personalmente mi sembra anche sprecato per giocare solo con tutti i collegamenti presenti.
Per AMD pure non si sa nulla, i presupposti ci sono dato il nodo di vantaggio, però senza info concrete è difficile pronosticare qualcosa...
fraussantin
28-08-2020, 08:00
Ma è sempre lo stesso gioco pensato per console.:)
E' un pò come le texture HD di FC che ti spara la vram a mille, su un titolo pensato per una base. Non a caso i giochi ubisoft utilizzano dai 4,5 ai 5,5gb in linea agli standard console.
Cmq se vuoi tanta ram, leggevo sui rumor che le versioni da 20gb escono i primi di ottobre. Bisogna vedere quanto costerà quella ram extra.
10 gb di gddr6 costano 120$ circa, le x sono ben più care, ovviamente non so quanto possa fartele pagare nvidia o i partner.Il punto é che con quello che costeranno dovevano essere già a 20 giga e casomai fare una versione a 10 giga "povery" successivamente
La cosa davvero forte è che qua si vociferava di una scheda che andrebbe +30% della 2080ti a 800 euro! :O
ps: lo sleeve dei cavi è un problemone, eh! :sofico:
Ci andrei cauto sia col prezzo che con le prestazioni.
Non abbiano poi a rivelarsi un +20% e 800dollari da tassare.
29Leonardo
28-08-2020, 08:04
Se stanno proponendo questi prezzi può essere perchè AMD non ha schede cosi potenti e quindi tira al rialzo come con le 20x0?
Io sono piu per i complotti :asd:, a nvidia data la mancanza di concorrenza fa comodo sparare alto e infatti i risultati di mercato sono fenomenali, ma ad amd fa comodo ugualmente in quanto può piazzare a prezzi superiori le sue proposte cosa non possibile se entrambe le case se la giocassero con prodotti molto simili tra loro.
Imho per me è da un bel pò che si sono messe d'accordo per spostare in su l'asticella dei prezzi per ogni fascia.
La cosa davvero forte è che qua si vociferava di una scheda che andrebbe +30% della 2080ti a 800 euro! :O
ps: lo sleeve dei cavi è un problemone, eh! :sofico:
Ma per quale motivo uno dovrebbe cambiare un alimentatore certificato platinum da 1000w solo per il discorso dell'adattatore a 12 pin ?:mbe:
redbaron
28-08-2020, 08:09
https://wccftech.com/nvidia-geforce-rtx-3090-custom-models-listed-online-colorful-vulcan-x-asus-rog-strix-oc/
Se non ho fatto ma i calcoli sono prezzi sopra i 2000€ per 3090 particolari
fraussantin
28-08-2020, 08:12
https://wccftech.com/nvidia-geforce-rtx-3090-custom-models-listed-online-colorful-vulcan-x-asus-rog-strix-oc/
Se non ho fatto ma i calcoli sono prezzi sopra i 2000€ per 3090 particolariThe Colorful GeForce RTX 3090 Vulcan-X OC has been listed for a price of 16,999 Chinese Yen that converts to almost $2400 US while the ASUS ROG STRIX GeForce RTX 3090 OC Gaming is listed for 18,999 Chinese Yen which converts to over $2700 US. Prices for Colorful's GeForce RTX 3090 graphics cards were also reported a few days back & don't feature the $2000 US+ price tags like the ones mentioned at Taobao. The prices are:
WONDERFUL :doh:
Thunder-74
28-08-2020, 08:14
https://wccftech.com/nvidia-geforce-rtx-3090-custom-models-listed-online-colorful-vulcan-x-asus-rog-strix-oc/
Se non ho fatto ma i calcoli sono prezzi sopra i 2000€ per 3090 particolari
ma sinceramente ci può stare... se pensi che la Titan con 24gb sta a 2.749,00..
E' possibile che alla presentazione JHH faccia il fico facendo passare la 3090 per economica rispetto alla Titan di prima
redbaron
28-08-2020, 08:25
The Colorful GeForce RTX 3090 Vulcan-X OC has been listed for a price of 16,999 Chinese Yen that converts to almost $2400 US while the ASUS ROG STRIX GeForce RTX 3090 OC Gaming is listed for 18,999 Chinese Yen which converts to over $2700 US. Prices for Colorful's GeForce RTX 3090 graphics cards were also reported a few days back & don't feature the $2000 US+ price tags like the ones mentioned at Taobao. The prices are:
WONDERFUL :doh:
Gli yen sono giapponesi, 16999 yuan sono circa 2100€ l”altro cambio non l’ho fatto per paura :asd:
ninja750
28-08-2020, 08:34
1100€ per la 3080 liscia???? :eek: :eek: :eek:
se fossero veri 1.150$, diventano facilmente 1.250 euro, non 1.100 :O
scimmia!11!!1!! scimmia!!11!!1!!!1 :eek: :D
fraussantin
28-08-2020, 08:37
Gli yen sono giapponesi, 16999 yuan sono circa 2100€ l”altro cambio non l’ho fatto per paura :asd:Ah io ci copiato quell'articolo , ma poi ci va messa l'iva.
fraussantin
28-08-2020, 08:37
Edit
fraussantin
28-08-2020, 08:38
Edit
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.