View Full Version : Nvidia Ampere con connettore PCIe a 12 pin: le dimensioni sono contenute
Redazione di Hardware Upg
24-08-2020, 10:21
Link alla notizia: https://www.hwupgrade.it/news/skvideo/nvidia-ampere-con-connettore-pcie-a-12-pin-le-dimensioni-sono-contenute_91501.html
Trapelano le immagini di un cavo con connettore a 12 pin che dovremmo ritrovare sulla GeForce RTX 3090 e altre nuove schede video "Ampere" di casa Nvidia. Le dimensioni del connettore sono contenute.
Click sul link per visualizzare la notizia.
50 ampere continui li dentro?
hmmm :help:
Gyammy85
24-08-2020, 11:00
Adesso ci mancano solo i watt più leggeri e i centimetri più piccoli e siamo a posto, magari la facciamo low profile
hanno ridotto la plastica isolante del connettore, quindi sarà più fragile e più soggetto agli effetti di surriscaldamento, chissa se passerà mai come connettore standard
OrazioOC
24-08-2020, 11:04
Adesso ci mancano solo i watt più leggeri e i centimetri più piccoli e siamo a posto, magari la facciamo low profile
Sempre meglio dei VegaWatt. :asd:
Vabe' ma 30cm di scheda, 3 slots, serve PSU da 850 e ha connettore proprietario..... manco la considero + una GPU ma un hardware specifico.
Personalmente non me la prenderei mai e paradossalmente non e' nemmeno il prezzo il problema, ma si sa, de gustibus.
Gyammy85
24-08-2020, 11:15
Sempre meglio dei VegaWatt. :asd:
Sempre meglio che stare qui a scrivere con le bollette in mano "la 580 consuma mezzo centesimo di corrente in più in dieci anni sulla 1060"
Dai non fare così :friend:
OrazioOC
24-08-2020, 11:16
Sempre meglio che stare qui a scrivere con le bollette in mano "la 580 consuma mezzo centesimo di corrente in più in dieci anni sulla 1060"
Dai non fare così :friend:
Non è colpa mia se ti manca il concetto di efficienza. :asd:
Gyammy85
24-08-2020, 11:18
Non è colpa mia se ti manca il concetto di efficienza. :asd:
Ma smettetela, il marketing fatelo fare ai visual di nvidia che sono pagati per farlo, fate i clienti una buona volta
Quindi la famiglia si chiama Ampere per via dei consumi.....
Mi ricorda le vecchie fermi e si faceva retorica su quelle schede che consumavano fino a 450 watt di picco..
Non capisco come un processo più piccolo 7/8 nm si sia arrivato a dimensioni/consumi esagerati e contro la tendenza attuale...
speriamo che la rtx 3080 rientri nei normali parametri attuali..
aldo87mi
24-08-2020, 11:19
speriamo solo che nei consumi questa RTX 3090 non sia un mulo come lo era inefficientissima GTX 480. Nvidia dovrebbe aver imparato dai suoi errori passati. Quelle dimensioni così imponenti della scheda non mi fanno ben sperare...Dai ragazzi, un'altra settimana e finalmente potremo metterci le mani su (e al nostro portafogli) :D
Sono rimasto molto indietro, tipo architettura Fermi.
Ai tempi le prospettive del futuro non erano architetture più piccole e TDP minori? O solo a parità di prestazioni?
OrazioOC
24-08-2020, 11:23
Ma smettetela, il marketing fatelo fare ai visual di nvidia che sono pagati per farlo, fate i clienti una buona volta
Evidentemente qualcuno doveva dirtelo che una scheda da 120w a parità di performance, è più efficiente di una da 180w. :asd:
Karandas
24-08-2020, 12:07
Ma caspita ho appena preso un alim da 700w fanless Titanium plus pagato un botto e adesso mi dicono che dovrei cambiarlo per una top di gamma? Morissero gonfi loro e Ampere.
StylezZz`
24-08-2020, 12:56
Il connettore dovrebbe essere un design proprietario di Nvidia, quindi non una soluzione industriale standard
I signori di Cupertino approvano :asd:
nickname88
24-08-2020, 13:25
Non è colpa mia se ti manca il concetto di efficienza. :asd:
Gyammy purtroppo a quanto pare dispone di un QI non troppo elevato, probabilmente al di sotto della media, abbi quindi un po' di pietà.
nickname88
24-08-2020, 13:35
Non per fare retorica, ma fosse stata presentata da AMD sta cosa, succedeva un casino :D
Visto che sostanzialmente AMD offre sempre performance di vertice inferiori direi che parliamo di 2 pesi e 2 misure.
La performance di una scheda del genere mi aspetto sia il top del mercato, se si parlasse di una AMD sarebbe difficile da crederlo.
Fino a prova contraria l'efficienza di Turing a 12nm è molto superiore a Navi che usa il 7nm e trovo difficile possa essere peggiorato col salto di nodo, difficile pensare che AMD da RDNA1 a RDNA2 abbia fatto un salto di efficienza esorbitante con un PP che è solo un affinamento.
Evidentemente qualcuno doveva dirtelo che una scheda da 120w a parità di performance, è più efficiente di una da 180w. :asd:
ma quella da 180W dava (e continua a dare) misure a quella da "solo" 120W (perchè le custom sono tutte ai 145W di limite del power limit offerto da nvidia), soprattutto quando per quella da 120W non fanno più giochi cuciti su di lei, visto che oggi li fanno con tecnologie leggermente più avanzate.
la dimostrazione l'hai ad ogni gioco nuovo che esce, dove la 1060 non riesce a raggiungere più nemmeno la 570 (in Horizon Zero Dawn la 470 arriva alle prestazioni di una 1060) che, rammento, insieme alla 580 o 480 che di si voglia, ha comunque 2GB in più di RAM da dover alimentare, nei suoi 180W misurati con metro last light in cui la 1060 prende manate a più non posso dalla 580 e che quindi giustifica ben bene il suo consumo e, soprattutto oggi, quei 2GB valgono molto di più di quei 20W in più che consumava una 480 rispetto ad una 1060 custom.
ora vienilo a ripetere anche quando una 1650 consuma di più di una 570 mandata alle stesse prestazioni della 1650 (anzi superiori).
vi fate delle menate che non hanno nessun senso.
nickname88
24-08-2020, 13:47
ma quella da 180W dava (e continua a dare) misure a quella da "solo" 120W (perchè le custom sono tutte ai 145W di limite del power limit offerto da nvidia), soprattutto quando per quella da 120W non fanno più giochi cuciti su di lei, visto che oggi li fanno con tecnologie leggermente più avanzate.
la dimostrazione l'hai ad ogni gioco nuovo che esce, dove la 1060 non riesce a raggiungere più nemmeno la 570 (in Horizon Zero Dawn la 470 arriva alle prestazioni di una 1060) che, rammento, insieme alla 580 o 480 che di si voglia, ha comunque 2GB in più di RAM da dover alimentare, nei suoi 180W misurati con metro last light in cui la 1060 prende manate a più non posso dalla 580 e che quindi giustifica ben bene il suo consumo e, soprattutto oggi, quei 2GB valgono molto di più di quei 20W in più che consumava una 480 rispetto ad una 1060 custom.
ora vienilo a ripetere anche quando una 1650 consuma di più di una 570 mandata alle stesse prestazioni della 1650 (anzi superiori).
vi fate delle menate che non hanno nessun senso.
Ecco arrivato il sognatore con i suoi deliri.
Bravo selezionati i giochi e le misurazioni ad hoc.
Gyammy85
24-08-2020, 15:15
Visto che sostanzialmente AMD offre sempre performance di vertice inferiori direi che parliamo di 2 pesi e 2 misure.
La performance di una scheda del genere mi aspetto sia il top del mercato, se si parlasse di una AMD sarebbe difficile da crederlo.
Fino a prova contraria l'efficienza di Turing a 12nm è molto superiore a Navi che usa il 7nm e trovo difficile possa essere peggiorato col salto di nodo, difficile pensare che AMD da RDNA1 a RDNA2 abbia fatto un salto di efficienza esorbitante con un PP che è solo un affinamento.
Si ma a sto giro comprala al day one e metti subito la firma
OrazioOC
24-08-2020, 15:27
ma quella da 180W dava (e continua a dare) misure a quella da "solo" 120W (perchè le custom sono tutte ai 145W di limite del power limit offerto da nvidia), soprattutto quando per quella da 120W non fanno più giochi cuciti su di lei, visto che oggi li fanno con tecnologie leggermente più avanzate.
la dimostrazione l'hai ad ogni gioco nuovo che esce, dove la 1060 non riesce a raggiungere più nemmeno la 570 (in Horizon Zero Dawn la 470 arriva alle prestazioni di una 1060) che, rammento, insieme alla 580 o 480 che di si voglia, ha comunque 2GB in più di RAM da dover alimentare, nei suoi 180W misurati con metro last light in cui la 1060 prende manate a più non posso dalla 580 e che quindi giustifica ben bene il suo consumo e, soprattutto oggi, quei 2GB valgono molto di più di quei 20W in più che consumava una 480 rispetto ad una 1060 custom.
ora vienilo a ripetere anche quando una 1650 consuma di più di una 570 mandata alle stesse prestazioni della 1650 (anzi superiori).
vi fate delle menate che non hanno nessun senso.
#FactsAreFacts (https://www.guru3d.com/index.php?ct=articles&action=file&id=41759)
nickname88
24-08-2020, 15:43
Si ma a sto giro comprala al day one e metti subito la firma
Stai tranquillo che ci penso io agli affari miei, te continua con il Malox Plus.
Intanto la concorrenza ancora una volta non si capisce dove caspita sia finita, e poi si ci chiede come mai Nvidia vende tanto ... :rolleyes:
Gyammy purtroppo a quanto pare dispone di un QI non troppo elevato, probabilmente al di sotto della media, abbi quindi un po' di pietà.
14g
#FactsAreFacts (https://www.guru3d.com/index.php?ct=articles&action=file&id=41759)
fatti?
https://ibb.co/NrNM2MC
fatti!
15% in più di framerate (e alla soglia della decenza), con un codice fatto per la PS4 (che notoriamente usa una derivazione delle openGL e gira abbatanza male sulle AMD), con 2 chip di memoria in più da alimentare e ad un costo del 30% in meno.
sono fatti, quelli veri.
poi, che questo gioco è ottimizzato AMD è proprio un'eufemismo, guardando una vega 56 che va meno di una 1650 super...
gira bene già solo navi, che ha un doppio scheduler per riempire le pipeline; ma questo significa solo che le AMD, tranne navi, non sono spremute al 100% e quindi che non arrivano a quei valori di consumo, che si ottengono solo con particolari giochi in cui vengono sfruttate al 100% (ma su cui una 580 tiene testa pure ad una 1070)...
fatti.
Stai tranquillo che ci penso io agli affari miei, te continua con il Malox Plus.
Intanto la concorrenza ancora una volta non si capisce dove caspita sia finita, e poi si ci chiede come mai Nvidia vende tanto ... :rolleyes:
e che deve vendersi nvidia, che non l'hanno manco presentata?
probabilmente AMD non ha bisogno di fare girare per 3 mesi prima fake, rumors e leaks per far alzare l'hype o preparare il pubblico a qualche mazzata.
presenterà e, se il prodotto è buono come Lisa Su ha dichiarato (effetto ryzen sulle GPU), venderà...
semplice e lineare.
Gyammy85
25-08-2020, 07:13
e che deve vendersi nvidia, che non l'hanno manco presentata?
probabilmente AMD non ha bisogno di fare girare per 3 mesi prima fake, rumors e leaks per far alzare l'hype o preparare il pubblico a qualche mazzata.
presenterà e, se il prodotto è buono come Lisa Su ha dichiarato (effetto ryzen sulle GPU), venderà...
semplice e lineare.
Che vuoi farci, ormai su sto forum la gente in grado di sostenere una conversazione vagamente tecnica si conta sulla punta delle dita, basti guardare al tenore dei post (rosikoni, channo tre nodi di vantaggiooo, ma li hai visti i fatturati??), roba da gruppetto Facebook
OrazioOC
25-08-2020, 08:11
fatti?
https://ibb.co/NrNM2MC
fatti!
15% in più di framerate (e alla soglia della decenza), con un codice fatto per la PS4 (che notoriamente usa una derivazione delle openGL e gira abbatanza male sulle AMD), con 2 chip di memoria in più da alimentare e ad un costo del 30% in meno.
sono fatti, quelli veri.
poi, che questo gioco è ottimizzato AMD è proprio un'eufemismo, guardando una vega 56 che va meno di una 1650 super...
gira bene già solo navi, che ha un doppio scheduler per riempire le pipeline; ma questo significa solo che le AMD, tranne navi, non sono spremute al 100% e quindi che non arrivano a quei valori di consumo, che si ottengono solo con particolari giochi in cui vengono sfruttate al 100% (ma su cui una 580 tiene testa pure ad una 1070)...
fatti.
Bellino, scegli sempre il titolo dove se la tira meglio, perchè tanto nvidia non può avere titoli ottimizzati per lei.:rolleyes:
Una media di giochi recenti da' questi risultati. (https://tpucdn.com/review/asus-radeon-rx-5600-xt-tuf-evo/images/relative-performance_1920-1080.png)
omihalcon
25-08-2020, 08:33
Obbietto solo che 600W (anche solo di picco) su un connettore più piccolo è una grossa stupidata visto che il voltaggio è 12V e 50A dovebbero essere trasportati con un cavo rame OFC puro di sezione maggiore di 16,8mm2 ovvero 5mm di diametro.
Posso farlo cortissimo in lunghezza ma io non mi fiderei. :mbe:
Grande idea utilizzare un connettore fuori standard :doh: come insegna Apple.
Domanda ma ce n'è bisogno?
Bellino, scegli sempre il titolo dove se la tira meglio, perchè tanto nvidia non può avere titoli ottimizzati per lei.:rolleyes:
Una media di giochi recenti da' questi risultati. (https://tpucdn.com/review/asus-radeon-rx-5600-xt-tuf-evo/images/relative-performance_1920-1080.png)
perchè, mostrare i consumi massimi di una schda ma non mostrare le performance che offre con quel consumo e su quello specifico gioco non è fare berry picking?
su metro last light, il gioco su cui solitamente si testano i consumi (come fa ad esempio TPU) una 590 arriva alle prestazioni di una 1070 in un gioco che è godibilissimo anche a 30fps ed in cui avere millemila fps non comporta nessun guadagno all'utente... giochi così dovrebbero avere solo un check: funziona o non funziona, non essere messi in una media ponderata.
consumo correlato all'utilizzo e considerazioni a contorno, come il dover alimentare 2 chippetti di VRAM in più o 2 ventole da 95mm contro una blower da 70mm omettendo che con le prime stai a 60°C e con la sola blower stai a 83°C (ossia a toccare il power limit delle founder reference).
una media di giochi recenti?
2/3 sono su DX11 e l'80% usa UE4...
basta Anno 1800 per far crollare la media delle AMD, dove una 1070 va quanto una vega 64 quando una vega 56 spesso supera una 1080 sui giochi "moderni"... e questo andamento si vede su tutte le AMD in confronto alle nvidia.
quando fai analisi dei dati devi essere puntuale ed obbiettivo e non mediare su cosa e come vuoi tu.
e, a proposito, la 580 anche nella media va sempre meglio di una 1060 e non si vede metro last light su quella sfilza di giochi, che magari avrebbe alzato ancora di più la media delle AMD.
io ho una 570 da 4GB, pagata la metà di una 1650, che alle prestazioni di una 1650 consuma meno e fa meno rumore, ma a differenza di questa la posso sparare a 180W e godermi anche prestazioni di classe superiore.. la 1650 la pagavi 240 euro e rimaneva e tuttora rimane una 1650.
se vuoi parlare di tecnologia è meglio che cominci a parlare di tecnologia nel modo in cui si deve parlarne, ossia obbiettivi, o evita....
Obbietto solo che 600W (anche solo di picco) su un connettore più piccolo è una grossa stupidata visto che il voltaggio è 12V e 50A dovebbero essere trasportati con un cavo rame OFC puro di sezione maggiore di 16,8mm2 ovvero 5mm di diametro.
Posso farlo cortissimo in lunghezza ma io non mi fiderei. :mbe:
Grande idea utilizzare un connettore fuori standard :doh: come insegna Apple.
Domanda ma ce n'è bisogno?
sono scelte, come lo furono l'introduzione della stessa alimentazione ausiliaria delle GPU, l'adozione del 6 pin e quella dell'8pin (con le stesse polemiche a corredo).
poi qul molex, da specifica, usa cavi da 0.75mm x 6 alimentazioni certificate per 5.5 A a 12V e con un inalzamento della temperatura di 30°C...
di per se può tranquillamente trasportare (anzi, è certificato per garantire la massima stabilità) fino a 400W.
se ne usano anche 200 è tutto a vantaggio del rendimento, visto che non hai i 30°C di riscaldamento dei cavi che porta ad un maggior assorbimento e quindi ad efficienze inferiori.
quello che pochi guardano è che, per quanto piccolo sia, la disposizione della scheda costringe a posizionarlo dove una volta c'era l'NVlink, quindi anche la 3090 perde la connessione in bridge?
Che vuoi farci, ormai su sto forum la gente in grado di sostenere una conversazione vagamente tecnica si conta sulla punta delle dita, basti guardare al tenore dei post (rosikoni, channo tre nodi di vantaggiooo, ma li hai visti i fatturati??), roba da gruppetto Facebook
non me ne preoccupo, soprattutto da certi elementi...
è più preoccupante la dilagante consuetudine acquisita di fare cattiva e mala informazione basandosi su presunti leaks non verificati o verificabili...
quella fa peggio dei fanboys, da cui: "la 480 brucia i PCIe delle schede madri" o "le AMD sono dei fornetti"...
mai a dire che scrivono giochi solo su ordinazione.
Obbietto solo che 600W (anche solo di picco) su un connettore più piccolo è una grossa stupidata visto che il voltaggio è 12V e 50A dovebbero essere trasportati con un cavo rame OFC puro di sezione maggiore di 16,8mm2 ovvero 5mm di diametro.
Posso farlo cortissimo in lunghezza ma io non mi fiderei. :mbe:
Grande idea utilizzare un connettore fuori standard :doh: come insegna Apple.
Domanda ma ce n'è bisogno?
Secondo me sono 300W da gestire, non 600 come riportato nell'articolo.
Dubito che Seasonic faccia un cavo adattatore così tanto fuori specifica.
Il limite certificato dei connettori 8pin delle gpu resta sempre 150W, sebbene supportino ufficiosamente valori superiori.
Ma c'è quell'avviso di usarlo su alimentatori > 850W, quindi si vogliono cautelarsi su quella sfilza di loro modelli nell'intervallo 450-750W che pur disponendo di almeno 2x8pin, se non 4, potrebbero non reggere bene i "fuori specifica".
OrazioOC
25-08-2020, 16:53
cut
Ah ok, quindi se per te un gioco è ottimizzato per nvidia o ha l'UE4(motore grafico di Fortnite che non è un gioco che se lo cagano in quattro) non va' considerato.:rolleyes:
No ma, continua pure, adoro i romanzi fantasy tipo la rx 570 che consuma meno della 1650 o che l'hai pagata la metà magari prendendola usata.:D
no, ma considero finanziare gli sviluppatori per fare giochi e motori grafici che vanno bene solo sulla propria architettura una manipolazione di mercato e non favorisco in nessun modo un produttore che si comporta in questo modo, perchè poi, nel tempo, ti ritrovi schede video a 2000 euro e dici pure che è cosa giusta.
artifizzi che cercano di manipolare il mercato per favorire una sola parte sono controproducenti per gli acquirenti e mi sembra che sia stato ben illustrato con quello che sta succedendo sui processori.
farebbero prima a fare delle esclusive solo per nvidia, a questo punto e creare un mercato chiuso in se stesso, così ve la potete cantare e suonare come vi pare.
finchè il gioco è venduto per HW generico pretendo che quando lo acquisto dia il meglio delle prestazioni su qualsiasi HW non solo su quello di chi gli ha scucito qualche soldo in fase di sviluppo o ha imposto di integrare le proprie esclusive tecnologie chiuse.
il gioco lo pago allo stesso prezzo di chi ha nvidia e voglio che vada al meglio anche sull'HW che preferisco io, non che venga gimpato da codici scritti appositamente per frenare la concorrenza.
la 1650 di buona marca aveva un prezzo di 220 euro quando ho preso la 570 a 120, su amazon, venduta da amazon e della migliore marca AIB che produce esclusivamente con AMD.
non sono tipo da prendere HW usato se non è strettamente necessario perchè ormai non più reperibile sul mercato del nuovo.
e fai poco il sarcastico, che non ne hai la minima ragione, visto che secondo i dati che hai postato la 1060 va tanto meno della 590 di quanto vada una 570 rispetto a questa, con la differenza che la 570 è da un paio d'anni che si trovava a 120 euro, mentre la 1060 non è mai scesa sotto i 250 euro, prezzo a cui però trovi le edizioni speciali della 590 già da un paio d'anni... con i tuoi giochi moderni come Anno 1800, che se lo giochi a 30fps o lo giochi a 250 non ti cambia nulla.
OrazioOC
26-08-2020, 07:28
no, ma considero finanziare gli sviluppatori per fare giochi e motori grafici che vanno bene solo sulla propria architettura una manipolazione di mercato e non favorisco in nessun modo un produttore che si comporta in questo modo, perchè poi, nel tempo, ti ritrovi schede video a 2000 euro e dici pure che è cosa giusta.
artifizzi che cercano di manipolare il mercato per favorire una sola parte sono controproducenti per gli acquirenti e mi sembra che sia stato ben illustrato con quello che sta succedendo sui processori.
farebbero prima a fare delle esclusive solo per nvidia, a questo punto e creare un mercato chiuso in se stesso, così ve la potete cantare e suonare come vi pare.
finchè il gioco è venduto per HW generico pretendo che quando lo acquisto dia il meglio delle prestazioni su qualsiasi HW non solo su quello di chi gli ha scucito qualche soldo in fase di sviluppo o ha imposto di integrare le proprie esclusive tecnologie chiuse.
il gioco lo pago allo stesso prezzo di chi ha nvidia e voglio che vada al meglio anche sull'HW che preferisco io, non che venga gimpato da codici scritti appositamente per frenare la concorrenza.
Problema tuo che ti fai di questi problemi, della proprietà e dell'ottimizzazione di un gioco per l'una o per l'altra marca, se un gioco ti piace, ci giochi, non lo ignori come faresti tu giusto perchè vuoi prediligere amd.:rolleyes:
la 1650 di buona marca aveva un prezzo di 220 euro quando ho preso la 570 a 120, su amazon, venduta da amazon e della migliore marca AIB che produce esclusivamente con AMD.
non sono tipo da prendere HW usato se non è strettamente necessario perchè ormai non più reperibile sul mercato del nuovo.
A locù, keepa lo abbiamo tutti per tracciare il prezzi di amazon, ma quando mai la 1650 è costata come una 1660?Ma vuoi veramente prenderci per fessi con così poco?:asd:
e fai poco il sarcastico, che non ne hai la minima ragione, visto che secondo i dati che hai postato la 1060 va tanto meno della 590 di quanto vada una 570 rispetto a questa, con la differenza che la 570 è da un paio d'anni che si trovava a 120 euro, mentre la 1060 non è mai scesa sotto i 250 euro, prezzo a cui però trovi le edizioni speciali della 590 già da un paio d'anni... con i tuoi giochi moderni come Anno 1800, che se lo giochi a 30fps o lo giochi a 250 non ti cambia nulla.
Ma che centra la 590?Bidone immondo con il rapporto prestazioni/consumi peggiori degli ultimi 5 anni, una scheda nata dalla disperazione di amd nel dover ripulire gli stock di polaris ma senza poter toccare l'uarch.
Uscita poi 4 mesi prima dalla 1660 ti, che lanciata allo stesso prezzo di listino ha subito fatto vedere quanto fosse penosa come scheda(che non batte neanche la 1660 gddr5).:rolleyes:
Prendi un r6x, un fortnite, un tomb raider o un AC, ti sembrano giochi che puoi considerare ottimali a 30 fps?Ammesso che tu li abbia mai aperti. :rolleyes:
omihalcon
26-08-2020, 15:48
sono scelte, come lo furono l'introduzione della stessa alimentazione ausiliaria delle GPU, l'adozione del 6 pin e quella dell'8pin (con le stesse polemiche a corredo).
poi qul molex, da specifica, usa cavi da 0.75mm x 6 alimentazioni certificate per 5.5 A a 12V e con un inalzamento della temperatura di 30°C...
di per se può tranquillamente trasportare (anzi, è certificato per garantire la massima stabilità) fino a 400W.
se ne usano anche 200 è tutto a vantaggio del rendimento, visto che non hai i 30°C di riscaldamento dei cavi che porta ad un maggior assorbimento e quindi ad efficienze inferiori.
quello che pochi guardano è che, per quanto piccolo sia, la disposizione della scheda costringe a posizionarlo dove una volta c'era l'NVlink, quindi anche la 3090 perde la connessione in bridge?
Sono perplesso perchè avere 30° in più non è che sia così ottimizzato anzi secondo me la circuiteria man mano ne risente.
Io spero che ci passino solo 300W-400W come da voi supposto ma ripeto di più mi pare un rischio, visto che i cavetti di alimentazione degli alimentatori sono in alluminio / acciaio neanche rame.
Non a caso ho scritto rame perchè vedendo gli impianti audio dove passa una marea di corrente per gli alimentatori intercetto il punto debole che è la fame di corrente che ha questa scheda.
Essendo al TOP di gamma nvidia non bada a soluzioni estreme di consumo, però visto che il mondo va verso uno stile green certe soluzioni meglio lasciarle nel passato e secondo me sarebbe meglio implementare una soluzione energeticamente più efficente.
StylezZz`
26-08-2020, 17:36
A locù, keepa lo abbiamo tutti per tracciare il prezzi di amazon, ma quando mai la 1650 è costata come una 1660?Ma vuoi veramente prenderci per fessi con così poco?:asd:
Non è una cazzata, infatti se guardi tu stesso su keepa e cerchi le custom tipo evga etc.. abbiamo prezzi che arrivavano anche a 270 euro, ma a parte queste eccezioni esagerate, poi i prezzi si sono mantenuti per un bel po' sui 200 euro, e ancora adesso le puoi trovare a 170-180 euro...
Ma che centra la 590?Bidone immondo con il rapporto prestazioni/consumi peggiori degli ultimi 5 anni, una scheda nata dalla disperazione di amd nel dover ripulire gli stock di polaris ma senza poter toccare l'uarch.
Uscita poi 4 mesi prima dalla 1660 ti, che lanciata allo stesso prezzo di listino ha subito fatto vedere quanto fosse penosa come scheda(che non batte neanche la 1660 gddr5).:rolleyes:
Spezzo una lancia in favore della tanto criticata 590 che ho avuto per alcuni mesi come scheda temporanea, negli ultimi tempi si trovava la Nitro+ nuova sui 180-190 euro e spesso anche con 3 mesi di gamepass etc.., e a quel prezzo me ne sono fregato altamente dei 40-50W in più, anche perché mediamente non ho mai superato i 180-190W nei giochi con frequenze stock (a differenza delle varie recensioni dove sparavano 250W con FurMark ma che poi nell'utilizzo comune e i giochi non ci arrivava MAI).
Sono d'accordo sul fatto che quando è uscita era davvero inutile, costava 300 euro e mediamente offriva solo un +10% rispetto la 580, ma poi con il calo di prezzo si è rivelata una scheda interessante che mi ha dato tante soddisfazioni. La GTX 1660 la batte in alcuni giochi, e viceversa, le prestazioni sono paragonabili, e in alcuni giochi come Shadow of the Tomb Raider avevo una media di fps anche superiore alla 1070 che ancora adesso viene venduta spesso sopra i 200 euro, scheda di 4 anni fa...:stordita:
Sono perplesso perchè avere 30° in più non è che sia così ottimizzato anzi secondo me la circuiteria man mano ne risente.
Io spero che ci passino solo 300W-400W come da voi supposto ma ripeto di più mi pare un rischio, visto che i cavetti di alimentazione degli alimentatori sono in alluminio / acciaio neanche rame.
Non a caso ho scritto rame perchè vedendo gli impianti audio dove passa una marea di corrente per gli alimentatori intercetto il punto debole che è la fame di corrente che ha questa scheda.
Essendo al TOP di gamma nvidia non bada a soluzioni estreme di consumo, però visto che il mondo va verso uno stile green certe soluzioni meglio lasciarle nel passato e secondo me sarebbe meglio implementare una soluzione energeticamente più efficente.
è un test di certificazione; per superarlo non deve oltrepassare la temperatura ambiente di più di 30°C.
gli fai passare 400W e non deve scaldare oltre i 30° per passare il test ed essere certificato.
così è più chiaro?
le specifiche di certificazione parlano di un multitreccia da 0.75mm in puro rame e 1.8mm di guaina isolante.
se poi trovi cavi in alluminioo o acciaio... è preferibile che li lasci dove li vendono, perchè non sono nemmeno da considerare di bassa qualità.
Molex certifica questi connettori con quelle specifiche (massime); se poi ci mettono schifezze, non è colpa di Molex...
puoi farti i conti di quanti watt perdi al metro se usi un normale cavo da 0.55mm con 1.2mm di guaina isolante in puro rame (titolo oltre il 98%) rispetto a questi alimentando a 12V per 5.5 A... sono dati tabellati e potrai constatare che si risparmiano una quindicina di watt se usi 6 alimentazioni.
logicamente sono in proporzione al carico e all'uso (quindi alla temperatura che ottieni), ma è tutto fatto solo per migliorare l'efficienza dell'alimentazione, non la potenza massima...
OrazioOC
26-08-2020, 19:27
Non è una cazzata, infatti se guardi tu stesso su keepa e cerchi le custom tipo evga etc.. abbiamo prezzi che arrivavano anche a 270 euro, ma a parte queste eccezioni esagerate, poi i prezzi si sono mantenuti per un bel po' sui 200 euro, e ancora adesso le puoi trovare a 170-180 euro...
No scusa, ma non mi puoi venire a dire che una 1650 costava come una 1660, c'è una differenza di listino di 70 dollari, e le fluttuazioni di prezzo stile amazon quando sono così forti non vanno considerate, non fai pagare un prodotto il 50% in più.
Che poi chi sano di mente la prenderebbe a quel prezzo sapendo che la 1660 va' il 50% in più sempre a 220 euro? ;)
Spezzo una lancia in favore della tanto criticata 590 che ho avuto per alcuni mesi come scheda temporanea, negli ultimi tempi si trovava la Nitro+ nuova sui 180-190 euro e spesso anche con 3 mesi di gamepass etc.., e a quel prezzo me ne sono fregato altamente dei 40-50W in più, anche perché mediamente non ho mai superato i 180-190W nei giochi con frequenze stock (a differenza delle varie recensioni dove sparavano 250W con FurMark ma che poi nell'utilizzo comune e i giochi non ci arrivava MAI).
Sono d'accordo sul fatto che quando è uscita era davvero inutile, costava 300 euro e mediamente offriva solo un +10% rispetto la 580, ma poi con il calo di prezzo si è rivelata una scheda interessante che mi ha dato tante soddisfazioni. La GTX 1660 la batte in alcuni giochi, e viceversa, le prestazioni sono paragonabili, e in alcuni giochi come Shadow of the Tomb Raider avevo una media di fps anche superiore alla 1070 che ancora adesso viene venduta spesso sopra i 200 euro, scheda di 4 anni fa...:stordita:
Sul sito amd c'è scritto 225w, sulle review prende 225w, nessuno si sta inventando nulla, è una scheda che per la fascia in cui apparteneva aveva consumi nonsense.
Andava più di 580 e 1060 del 10%, ma non può consumare 40w in più della già esosa 580 e addirittura quasi il doppio della 1060.
E' una scheda che non doveva esistere, o se doveva esserci potevano lanciarla parecchio prima, non 4 mesi prima della 1660/ti che erano migliori in tutto.
Problema tuo che ti fai di questi problemi, della proprietà e dell'ottimizzazione di un gioco per l'una o per l'altra marca, se un gioco ti piace, ci giochi, non lo ignori come faresti tu giusto perchè vuoi prediligere amd.:rolleyes:
il problema è di tutti, perchè oggi ti troverai schede a 2000 euro per queste "ottimizzazioni" closed, come le chiami tu, che nessuno cercava, visto che il tutto può funzionare bene anche senza o con algoritmi open su qualsiasi marca di scheda, se scritto nel modo giusto.
per anni abbiamo agognato API standard che permettevano di far funzionare tutto su tutto e alla stessa maniera e invece abbiamo permesso ad un'industria di vincolare il mercato alle sue sole soluzioni esclusivamente per decurtare artificiosamente le prestazioni della concorrenza, facendo così in modo di sembrare che risultava migliore e farsi pagare di più prodotti scadenti...
ora paga, zitto e contento di farlo.
A locù, keepa lo abbiamo tutti per tracciare il prezzi di amazon, ma quando mai la 1650 è costata come una 1660?Ma vuoi veramente prenderci per fessi con così poco?:asd:
se prendo una delle migliorio schede fate con i chip di un produttore la confronto, nel prezzo e nelle prestazioni, con la migliore scheda della concorrenza, la 1650 TUF, non con la schedina da supermercato della Palit.
la TUF garantiva un'alimentazione di 100W. un dissipatore con heatpipe (e non un pezzo di alluminio mal rifinito) ed aveva le migliori prestazioni per quel chip, ma veniva anche 220 euro quando con 120 prendevi una 570 sapphire, la mettevi a 1000-1100mhz, spostavi il trim della potenza a -30, settavi le ventole a 800RPM e la vedevi consumare meno della stessa Asus 1650 TUF pur garantendoti prestazioni superiori (a me, compreso memorie, consuma meno di 100W in quelle condizioni e mantiene oggi, con 30°C, una temperatura inferiore a 50°C)
nessuno ti sta dicendo che, se spremuto fino all'ultimo mhz, polaris non consumasse tanto, ma a quel prezzo e con la possibilità offerta dai driver AMD di settare tutti i parametri, ho preferito spendere poco e metterla per il suo golden spot per ottenere di più, in assoluto silenzio e con poca spesa.
d'altra parte la stessa nvidia ha fatto chipponi per riuscire a ottenere il miglior golden spot su turing; non lo posso fare io con qualsiasi chip che mi permetta di essere gestito a mio piacere?
l'importante è che mi costi comunque meno (e 120 euro contro anche 160 euro di oggi per una ventur MSI sono sempre e comunque 40 euro in meno, con la possibilità di farla andare più di una 1060 con due click di mouse.. anzi, presettando i parametri per singolo gioco o applicazione lo fa in automatico da sola).
Ma che centra la 590?Bidone immondo con il rapporto prestazioni/consumi peggiori degli ultimi 5 anni, una scheda nata dalla disperazione di amd nel dover ripulire gli stock di polaris ma senza poter toccare l'uarch.
Uscita poi 4 mesi prima dalla 1660 ti, che lanciata allo stesso prezzo di listino ha subito fatto vedere quanto fosse penosa come scheda(che non batte neanche la 1660 gddr5).:rolleyes:
per la 1660 sembra abbiano fatto la 5600 xt...
se vuoi puoi confrontarle.
la 590 è stata l'estremizzazione di polaris, spremuto al massimo e con il raffinamento del processo produttivo, ma, anche con quella, al prezzo a cui veniva venduta, se la mandavi come una 1060 alla fine consumava anche meno di questa...
bastava sapere quello che si doveva fare.
Prendi un r6x, un fortnite, un tomb raider o un AC, ti sembrano giochi che puoi considerare ottimali a 30 fps?Ammesso che tu li abbia mai aperti. :rolleyes:
un fortnite con ue4 single thread?
un tomb raider su cui hanno spalmato più codice gamework che altro o un AC che sembra abbiano scritto letteralmente con i piedi, per quanto succhia risorse alla CPU (senza andare nel dettaglio dicendoti che se avessero evitato di usare anche solo physx avresti dei framerate decenti anche con le nvidia, visto che il computo fisico grava sulla CPU e sul thread principale, ammazzando qualsiasi CPU e non facendo fare 60fps nemmeno ad una 2080 Ti in 4K!).
prendi AC odyssey e cerca quanto fa una 2070 in 1440p...
manco 60fps per una scheda che mediamente costava 600 euro.
tu fai che vuoi, sei libero di fare le tue scelte...
io continuerò a scegliere i prodotti che, per costo, modo di essere gestito e ottenimento delle prestazioni (non solo fps, ma anche calore e rumore), mi permettono di fare quello che voglio io, ma evita di scrivere tavanate che non hanno senso.
la 1060 è stata la scheda che, più di tutte negli ultimi anni, è stata immeritativamente lodata.
poi nvidia ha fatto la serie 16xx e, a quel costo, veniva solo da piangere!
200 euro per una scheda con dissipatore senza nemmeno una heatpipe ed un ventolino da frullatore!
OrazioOC
26-08-2020, 20:01
il problema è di tutti, perchè oggi ti troverai schede a 2000 euro per queste "ottimizzazioni" closed, come le chiami tu, che nessuno cercava, visto che il tutto può funzionare bene anche senza o con algoritmi open su qualsiasi marca di scheda, se scritto nel modo giusto.
per anni abbiamo agognato API standard che permettevano di far funzionare tutto su tutto e alla stessa maniera e invece abbiamo permesso ad un'industria di vincolare il mercato alle sue sole soluzioni esclusivamente per decurtare artificiosamente le prestazioni della concorrenza, facendo così in modo di sembrare che risultava migliore...
ora paga, zitto e contento di farlo.
Se un titolo mi piace lo compro va bene?Non lo devo comprare per il marchio che porta su di essa?Ma dove siamo all'asilo che ci si fa i dispetti tra compagni?:rolleyes:
se prendo una delle migliorio schede fate con i chip di un produttore la confronto, nel prezzo e nelle prestazioni, con la migliore scheda della concorrenza, la 1650 TUF, non con la schedina da supermercato della Palit.
la TUF garantiva un'alimentazione di 100W. un dissipatore con heatpipe (e non un pezzo di alluminio mal rifinito) ed aveva le migliori prestazioni per quel chip, ma veniva anche 220 euro quando con 120 prendevi una 570 sapphire, la mettevi a 1000-1100mhz, spostavi il trim della potenza a -30, settavi le ventole a 800RPM e la vedevi consumare meno della stessa Asus 1650 TUF pur garantendoti prestazioni superiori (a me, compreso memorie, consuma meno di 100W in quelle condizioni e mantiene oggi, con 30°C, una temperatura inferiore a 50°C)
nessuno ti sta dicendo che, se spremuto fino all'ultimo mhz, polaris non consumasse tanto, ma a quel prezzo e con la possibilità offerta dai driver AMD di settare tutti i parametri, ho preferito spendere poco e metterla per il suo golden spot per ottenere di più, in assoluto silenzio e con poca spesa.
d'altra parte la stessa nvidia ha fatto chipponi per riuscire a ottenere il miglior golden spot su turing; non lo posso fare io con qualsiasi chip che mi permetta di essere gestito a mio piacere?
l'importante è che mi costi comunque meno (e 120 euro contro anche 160 euro di oggi per una ventur MSI sono sempre e comunque 40 euro in meno, con la possibilità di farla andare più di una 1060 con due click di mouse.. anzi, presettando i parametri per singolo gioco o applicazione lo fa in automatico da sola).
See vabbe', per la 1650 consideri la super top di gamma che fa 1 fps in più delle versioni entry level, mentre quando parli di amd sei in grado di considerare lo street price delle più scascione, le xfx che lavorano a 80 °c.:rolleyes:
O magari inventarsi i prezzi tipo 1650 a 220 euro e sapphire magari nitro a 120.:rolleyes:
Bello fare sti confronti assurdi, quando il prezzo di listino racconta altro.:D
per la 1660 sembra abbiano fatto la 5600 xt...
se vuoi puoi confrontarle.
la 590 è stata l'estremizzazione di polaris, spremuto al massimo e con il raffinamento del processo produttivo, ma, anche con quella, al prezzo a cui veniva venduta, se la mandavi come una 1060 alla fine consumava anche meno di questa...
bastava sapere quello che si doveva fare.
Diglielo ad amd che l'ha fatta uscire, 225w per il rebrand di un chip che partiva da 150w, solo in amd potevano considerarla una buona idea. :rolleyes:
un fortnite con ue4 single thread?
un tomb raider su cui hanno spalmato più codice gamework che altro o un AC che sembra abbiano scritto letteralmente con i piedi, per quanto succhia risorse alla CPU (senza andare nel dettaglio dicendoti che se avessero evitato di usare anche solo physx avresti dei framerate decenti anche con le nvidia, visto che il computo fisico grava sulla CPU e sul thread principale, ammazzando qualsiasi CPU e non facendo fare 60fps nemmeno ad una 2080 Ti in 4K!).
prendi AC odyssey e cerca quanto fa una 2070 in 1440p...
manco 60fps per una scheda che mediamente costava 600 euro.
L'ue4 un certo grado di multithreading lo ha, non scala sulle cpu del menga tipo fx, ma di certo non ha problemi con le cpu attuali amd o intel, anche perchè oltre ad essere dx12, lo si può implementare con le vulkan.
A te da' semplicemente fastidio che viaggia meglio su nvidia rispetto ad amd. ;)
tu fai che vuoi, sei libero di fare le tue scelte...
io continuerò a scegliere i prodotti che, per costo, modo di essere gestito e ottenimento delle prestazioni (non solo fps, ma anche calore e rumore), mi permettono di fare quello che voglio io, ma evita di scrivere tavanate che non hanno senso.
la 1060 è stata la scheda che, più di tutte negli ultimi anni, è stata immeritativamente lodata.
poi nvidia ha fatto la serie 16xx e, a quel costo, veniva solo da piangere!
200 euro per una scheda con dissipatore senza nemmeno una heatpipe ed un ventolino da frullatore!
:rotfl: :rotfl: :rotfl: :rotfl: .
No scusa, ma non mi puoi venire a dire che una 1650 costava come una 1660, c'è una differenza di listino di 70 dollari, e le fluttuazioni di prezzo stile amazon quando sono così forti non vanno considerate, non fai pagare un prodotto il 50% in più.
Che poi chi sano di mente la prenderebbe a quel prezzo sapendo che la 1660 va' il 50% in più sempre a 220 euro? ;)
la maggior parte delle 1650 sono limitate ai 75W forniti dal PCIe.
se vuoi quelle che danno un po' di più devi prendere quelle con alimentazione ausiliaria con il 6 PIN, e a quel punto può arrivare al vero power limit che ha settato nvidia per questa scheda (100-110W, a seconda del modello).
se voglio far andare la mia 570 come una 1650 da 75W mi tocca scendere a 750mhz di clock... consumo sui 70W di core e non posso mettere le ram a frequenze inferiori a 1250mhz per togliere consumo anche su quelle, mentre la ventola a meno di 800rpm non la posso settare... in pratica ho le stesse prestazioni con meno di 40°C (e non 70-75° come stanno quelle schede con un dissipatore da chipset).
Sul sito amd c'è scritto 225w, sulle review prende 225w, nessuno si sta inventando nulla, è una scheda che per la fascia in cui apparteneva aveva consumi nonsense.
225W li prende esclusivamente se arriva alla frequenza massima e hai l'uso della GPU sempre al 100%, con il carico del 100% di tutte le unità, ed è il limite imposto da AMD (power limit).
è una situazione che ottieni solo se la imposti in quel modo, con il trim a +30% e se il gioco lo permette.
a quel punto la scheda userà tutte le sue risorse fino a quel limite di potenza e solo nelle situazioni di picco massimo.
generalmente non è detto che sfrutterai tutte le unità, anche se la GPU indica il 100% d'uso (sulla dashboard dei driver puoi vedere il plot dell'uso della GPU con, in realtà, 2 istogrammi; uno rosso spento ed uno rosso acceso. il primo si riferisce all'attività dell'uncore, l'altro all'attività delle unità di calcolo... non è detto che hai anche quelle delle unità di calcolo al massimo uso e ciò comporta un consumo inferiore).
la gestione della potenza assorbita da una AMD (di quella serie) è sensibilmente differente da quella di una nvidia, in cui hai praticamente sempre il 100% d'uso della GPU e delle unità (a meno di non gestire potenze grafiche esorbitanti su palesi bottleneck della CPU); segno che potrebbero dare molto di più di quello che offrono, ma che sono volutamente limitate per non eccedere in potenza assorbita e calore generato.
Andava più di 580 e 1060 del 10%, ma non può consumare 40w in più della già esosa 580 e addirittura quasi il doppio della 1060.
E' una scheda che non doveva esistere, o se doveva esserci potevano lanciarla parecchio prima, non 4 mesi prima della 1660/ti che erano migliori in tutto.
è proprio il concetto che non hai chiaro:
POTEVA ANDARE ed ERA IN GRADO di andare di più della 580 e della 1060 del 10-15-20% in più e può consumare anche oltre 40W più di queste, perchè stai spremedo il chip al suo limite massimo, ma solo per 2 motivi: volevi farlo e c'era la condizione per farlo (ossia un gioco che non gimpava le architetture moderne).
volendo, moddando il bios, la puoi mandare anche a 300W (poi però devi raffreddarla bene se non vuoi fondere il chip!).
il limite della mia 570 è settato a 180W sul bios (quindi togli quei 30-40W della RAM e arrivi a 140-150W sul chip), ma moddando il bios posso spingerlo agli stessi valori di una 580 custom, ossia oltre 170W solo per il chip.
ti dev'essere poi scappato un trimestre dalle mani, visto che la 590 è stata presentata a novembre 2018 e la prima della seire 1600, la 1660 Ti gli ultimi giorni di febbraio 2019.
quando fu presentata la 1660 Ti, con un prezzo medio delle custom buone, tipo gaming x, sui 350 euro, la sapphire 590 nitro+ costava 277 euro e c'erano quei 70 euro di differenza che non erano certo pochi, per quella classe di prestazioni.
come si disse al tempo, anche se consumava il doppio, si parlava comunque di 100-120W e con la differenza di consumo avresti recuperato la spesa in circa 3000 ore di gioco (che a 3 ore al giorno, tutti i giorni, fanno 3 anni di servizio).
ed anche per il calore profuso sotto futuremark non c'era tanti problemi, visto che di per se era più fredda la nitro+ che la MSI gaming x....
la 590 era il canto del cigno di polaris e dopo l'uscita delle 1660 TI ha visto cali di prezzi importanti, toccando i 220 euro, il costo di una 1660 e dalla quale non temeva confronti in nessun tipo di gioco, anche quelli gimpati con i gameworks.
a dirti la verità ero tentato, ma l'avrei comunque usata come la 570... l'avrei fatto solo per settarla ancora più bassa e ottenere tutti i benefici del dissipatore migliore e di un processo produttivo più raffinato... ma, sinceramente, quei 2 gradi in meno sul chip non valevano 100 euro in più dei miei risparmi...
OrazioOC
26-08-2020, 20:33
la maggior parte delle 1650 sono limitate ai 75W forniti dal PCIe.
se vuoi quelle che danno un po' di più devi prendere quelle con alimentazione ausiliaria con il 6 PIN, e a quel punto può arrivare al vero power limit che ha settato nvidia per questa scheda (100-110W, a seconda del modello).
se voglio far andare la mia 570 come una 1650 da 75W mi tocca scendere a 750mhz di clock... consumo sui 70W di core e non posso mettere le ram a frequenze inferiori a 1250mhz per togliere consumo anche su quelle, mentre la ventola a meno di 800rpm non la posso settare... in pratica ho le stesse prestazioni con meno di 40°C (e non 70-75° come stanno quelle schede con un dissipatore da chipset).
https://static.techspot.com/articles-info/1837/bench/FN-p.webp
Oscià, ben 2 fps di differenza tra una 1650 con il 6 pin rispetto a quella che ne è sprovvista, davvero una differenza degna di nota.:rolleyes:
225W li prende esclusivamente se arriva alla frequenza massima e hai l'uso della GPU sempre al 100%, con il carico del 100% di tutte le unità, ed è il limite imposto da AMD (power limit).
Cioè sempre in gaming, visto che la scheda è di fascia media e i titoli moderni anche in full hd la spremono senza problemi.
è proprio il concetto che non hai chiaro:
POTEVA ANDARE ed ERA IN GRADO di andare di più della 580 e della 1060 del 10-15-20% in più e può consumare anche oltre 40W più di queste, perchè stai spremedo il chip al suo limite massimo, ma solo per 2 motivi: volevi farlo e c'era la condizione per farlo (ossia un gioco che non gimpava le architetture moderne).
Poteva, ma alla fine non ci è andata. (https://static.techspot.com/articles-info/1747/images/2018-11-16-image-3-p.webp)
Poi puoi inventarti di tutto, giri di parole immensi conditi di nulla, ma i fatti sono fatti. :)
L'ue4 un certo grado di multithreading lo ha
non certo su fortnite.
sfrutta 2 core e gli altri li usa per giocare a UNO.
:rotfl: :rotfl: :rotfl: :rotfl: .
quando non sai più che scrivere per rispondere ti vengono le crisi di riso isterico?
OrazioOC
26-08-2020, 20:34
non certo su fortnite.
sfrutta 2 core e gli altri li usa per giocare a UNO.
quando non sai più che scrivere per rispondere ti vengono le crisi di riso isterico?
Rido perchè ti inventi cose che non stanno nè in cielo nè in terra, senza portare uno straccio di fonte che sia uno. :)
StylezZz`
26-08-2020, 21:03
No scusa, ma non mi puoi venire a dire che una 1650 costava come una 1660, c'è una differenza di listino di 70 dollari, e le fluttuazioni di prezzo stile amazon quando sono così forti non vanno considerate, non fai pagare un prodotto il 50% in più.
''ma non mi puoi venire a dire...'' Cosa dovrei dirti? I fatti questi sono, tutto registrato su keepa. Che poi va be, Amazon non è proprio l'ideale come prezzi per i componenti, salvo qualche offerta lampo o errore di prezzo.
Che poi chi sano di mente la prenderebbe a quel prezzo sapendo che la 1660 va' il 50% in più sempre a 220 euro? ;)
Più di quanto tu possa immaginare, la gente legge ''nvidia gtx'' e compra, per non parlare delle 1050/1060 che ancora attirano tantissimi ingenui che non sanno nemmeno dell'esistenza delle nuove schede.
Sul sito amd c'è scritto 225w, sulle review prende 225w, nessuno si sta inventando nulla, è una scheda che per la fascia in cui apparteneva aveva consumi nonsense.
Andava più di 580 e 1060 del 10%, ma non può consumare 40w in più della già esosa 580 e addirittura quasi il doppio della 1060.
Mica ho detto che i risultati sono inventati, lo so che può arrivare a quei consumi nei benchmark più spinti come furmark, io stesso la provai e ottenni gli stessi risultati. Ma come ho già specificato prima, nei giochi e nell'utilizzo comune non ho mai superato 180-190W (con PL +50 :rolleyes:), e parliamo di giochi abbastanza pesanti anche a 1440p, quindi quei 225W o più sono puramente indicativi per dirti che quella scheda sotto stress estremo arriva a quei consumi, punto. Poi andrebbe considerato il fatto che non tutte le schede sono uguali, ci sono quelle più fortunate che consumano meno e quelle più sfortunate, quindi ti indicano anche un valore generale che vada bene per tutte.
E' una scheda che non doveva esistere, o se doveva esserci potevano lanciarla parecchio prima, non 4 mesi prima della 1660/ti che erano migliori in tutto.
Perché non doveva esistere? Avevano queste Polaris da smaltire, e hanno fatto la 590, una scheda che aveva il compito di distanziare una volta e per tutte la 1060 e compete con la 1660. Consuma di più? E sti cazzi se me la fai pagare meno della concorrenza e ci metti pure 8GB che male non fanno.
OrazioOC
26-08-2020, 21:51
''ma non mi puoi venire a dire...'' Cosa dovrei dirti? I fatti questi sono, tutto registrato su keepa. Che poi va be, Amazon non è proprio l'ideale come prezzi per i componenti, salvo qualche offerta lampo o errore di prezzo.
Più di quanto tu possa immaginare, la gente legge ''nvidia gtx'' e compra, per non parlare delle 1050/1060 che ancora attirano tantissimi ingenui che non sanno nemmeno dell'esistenza delle nuove schede.
Se una scheda di listino costa 150 euro non la paghi 220 euro, va' bene l'ignoranza dell'utenza media, ma fare 2 ricerche su google è molto semplice.
Infatti la fascia dei 200/250 euro è roba della 1660 super e prima di essa della 1660 gddr5.
Mica ho detto che i risultati sono inventati, lo so che può arrivare a quei consumi nei benchmark più spinti come furmark, io stesso la provai e ottenni gli stessi risultati. Ma come ho già specificato prima, nei giochi e nell'utilizzo comune non ho mai superato 180-190W (con PL +50 :rolleyes:), e parliamo di giochi abbastanza pesanti anche a 1440p, quindi quei 225W o più sono puramente indicativi per dirti che quella scheda sotto stress estremo arriva a quei consumi, punto. Poi andrebbe considerato il fatto che non tutte le schede sono uguali, ci sono quelle più fortunate che consumano meno e quelle più sfortunate, quindi ti indicano anche un valore generale che vada bene per tutte.
La scheda messa alle strette in gaming ha effettivamente quei consumi, possiamo prendere tutte le review, ma sempre sui 220w sta.:rolleyes:
https://www.guru3d.com/index.php?ct=articles&action=file&id=46174
StylezZz`
26-08-2020, 22:04
La scheda messa alle strette in gaming ha effettivamente quei consumi, possiamo prendere tutte le review, ma sempre sui 220w sta.:rolleyes:
La mia stava sempre sotto i 200W :boh: dovevo overcloccarla per superare quei consumi, evidentemente era una gpu migliore della media.
C'era un altro utente nel thread delle Polaris che aveva la mia stessa scheda, e la sua consumava ancora meno, aveva un asic migliore e arrivava a 1700mhz sul core (1560Mhz stock)
Se una scheda di listino costa 150 euro non la paghi 220 euro, va' bene l'ignoranza dell'utenza media, ma fare 2 ricerche su google è molto semplice.
Infatti la fascia dei 200/250 euro è roba della 1660 super e prima di essa della 1660 gddr5.
la 2080 TI è stata presentata per 999$.
non ne trovi una a quel prezzo nemmeno oggi, a distanza di 2 anni, dai peggiori VAT player.
il listino si riferisce al prodotto più infimo che puoi trovare, tanto che nemmeno nvidia ha mai venduto, da quando ha aperto il suo shop, al prezzo di listino.
figurati poi se andavi a prendere una 1650 un'anno e passa fa che ti davano?
una palit senza alimentazione monoventola che gira a 2500 rpm e che comunque rimane a 80°.
La scheda messa alle strette in gaming ha effettivamente quei consumi, possiamo prendere tutte le review, ma sempre sui 220w sta.:rolleyes:
si, ma quando è messa alle strette non rende mica solo il 10% in più di una 1060... fa il solletico alle 1070...
guarda, la maggior parte usa Merto last light per spremere le schede per i consumi... cercati i benchmark con i driver aggiornati e fatti due risate.
la 590 va quanto una 1070.
anzi, adesso lo metto in download e ti faccio il benchmark, così vedi a che livello stà con quel consumo e poi te la parametrizzo alle prestazioni della 1060 e vediamo quando consuma a quel livello (già fatto con una 1650 ventus di un'amico, PC accanto a PC, presa amperometrica alla spina e se ne uscita con le ossa rotte, tanto che è stata rimandata ad amazon per prendere una 570 come la mia e con l'avanzo un SSD NVME da 500GB).
ci credo che consuma, a quel livello: un chip da 232mm^2 che compete con uno da 314mm^2!
https://www.guru3d.com/index.php?ct=articles&action=file&id=46174
come ti è stato già detto vai a guardare con che gioco fanno il test per rilevare quei consumi e soprattutto guarda che prestazioni offrono per quel consumo.
berry picking come fai tu, che mostri la media di 20 giochi ma il consumo di un solo gioco che nemmeno è nella lista dei primi...
perchè non mi fai la media del consumo sugli stessi 20 giochi?
perchè allora non parametrizziamo le prestazioni solo con il gioco che usano per il consumo?
:mc:
cdimauro
27-08-2020, 07:35
Prima si sceglievano le schede video per poi farci girare i giochi: adesso si scelgono le schede video E anche i giochi da farci girare...
Dulcis in fundo, per i consumi delle GPU non si deve fare come le CPU, dove si usano le applicazioni più stressanti, ma si deve fare una media del consumi delle varie applicazioni.
Ho visto cose che voi umani...
OrazioOC
27-08-2020, 07:40
la 2080 TI è stata presentata per 999$.
non ne trovi una a quel prezzo nemmeno oggi, a distanza di 2 anni, dai peggiori VAT player.
il listino si riferisce al prodotto più infimo che puoi trovare, tanto che nemmeno nvidia ha mai venduto, da quando ha aperto il suo shop, al prezzo di listino.
figurati poi se andavi a prendere una 1650 un'anno e passa fa che ti davano?
una palit senza alimentazione monoventola che gira a 2500 rpm e che comunque rimane a 80°.
Non è che cerchi la scheda che non ha avuto cali di prezzo(per mancanza di concorrenza tra l'altro, grazie amd :asd:) per poi applicare il discorso anche alle altre gpu.
La 1650 è una scheda che è sempre costata 150 euro, perchè lo dice nvidia non lo dice paperino. :D
si, ma quando è messa alle strette non rende mica solo il 10% in più di una 1060... fa il solletico alle 1070...
guarda, la maggior parte usa Merto last light per spremere le schede per i consumi... cercati i benchmark con i driver aggiornati e fatti due risate.
la 590 va quanto una 1070.
anzi, adesso lo metto in download e ti faccio il benchmark, così vedi a che livello stà con quel consumo e poi te la parametrizzo alle prestazioni della 1060 e vediamo quando consuma a quel livello (già fatto con una 1650 ventus di un'amico, PC accanto a PC, presa amperometrica alla spina e se ne uscita con le ossa rotte, tanto che è stata rimandata ad amazon per prendere una 570 come la mia e con l'avanzo un SSD NVME da 500GB).
ci credo che consuma, a quel livello: un chip da 232mm^2 che compete con uno da 314mm^2!
Fa il solletico alla 1070 :asd: :asd: , si in 2/3 giochi pesantemente ottimizzati amd, in tutto il resto è poco più che una 1060.
Se vuoi una scheda che vada come una 1070 devi prendere una 1660 super/ti, quelle si che vanno come la 1070.
come ti è stato già detto vai a guardare con che gioco fanno il test per rilevare quei consumi e soprattutto guarda che prestazioni offrono per quel consumo.
Consumi che ho postato io, non certo tu. :asd:
berry picking come fai tu, che mostri la media di 20 giochi ma il consumo di un solo gioco che nemmeno è nella lista dei primi...
perchè non mi fai la media del consumo sugli stessi 20 giochi?
perchè allora non parametrizziamo le prestazioni solo con il gioco che usano per il consumo?
:mc:
Non centra nulla il gioco scelto per la misurazione dei consumi, non hanno scelto di sicuro giochi come league of legends per misurare i watt alla presa, ma giochi che ste schede le possono spremere.:rolleyes:
Non centra nulla il gioco scelto per la misurazione dei consumi, non hanno scelto di sicuro giochi come league of legends per misurare i watt alla presa, ma giochi che ste schede le possono spremere.:rolleyes:
...ma che riflettono il massimo del consumo ottenibile, il power limit impostato da bios.
a differenza di quando succede su nvidia, dove la scheda raggiunge sempre il power limit, le AMD come polaris non sono così; navi lo fa, ma polaris no.
polaris consuma per quanto riesce ad essere "spremuto" (su navi hanon messo un doppio schedulatore a CU per ottimizzare il riempimento delle pipeline), quindi sui giochi in cui vedi che va meno di una 1060, consuma anche meno; sui giochi in cui viene spremuta al massimo, consuma quanto imposto dal power limit.
gioco con un monitor accanto in cui ho la dashboard dei parametri sempre visibile e setto la scheda per farle fare il meglio, senza per questo farla consumare troppo.
inutile andare a prendere millemila fps se per soli 10fps su una media di 100 il consumoi mi aumenta del 30% e devo subirmi il rumore delle ventole.
se non ne hai mai avuta una in mano e probabilmente sei abituato ad una nvidia, non è detto che sia come succede con nvidia, ed infatti non lo è...
https://ibb.co/C03f91x
questi i consumi su un gioco appena aperto.
come vedi non sono i 180W del power limit della scheda.
ai 97W che vedi devi aggiungere il consumo delle VRAM che saranno 20-25W (per questo gioco le mantengo a 1250mhz e 750mV, visto che è del tutto ininfuente).
senza condizionatore acceso consuma sui 95W di media, con il condizionatore i consumi scendono a 85W (di solito la setto a 1050mhz di massimo su questo gioco); le temperature sono di 55°C per 1300RPM della ventola a condizionatore spento, quindi con i 32°C di TA; con 25° scendono sui 48°C (o abbasso i giri della ventola a 1000PM, ma a me il condizionatore fa venire la sinusite, anche perchè l'ho proprio sulla sedia e quindi preferisco non usarlo).
il tutto per 55fps medi, che, su questo giochetto (fatto su UE4) non sono male.
i 180W li ho visti sono su 3DMark con overclock a 1400mhz, ma nemmeno una 1060 della EVGA in overclock gli starebbe dietro...
potrei impostare gioco e scheda per fargli fare il massimo, ma alla fine sarebbero 65fps e comunque non più di 130W sul core (il gioco non riesce a spremere l'occupazione di GPU e CU al limite) , con ventola a manetta e temperature oltre i 70°C... a che prò, visto che ho un monitor freesync e che tra 55 e 65 non ci passa tutta questa differenza su questo gioco?
e, con questo caldo, non sono in undervolt per evitare anche la minima problematica (ho sia un profilo per undervolt che questo per questo giochetto).
lo screenshot ti fa vedere 3 dei 5 monitor che uso sui miei PC (2 ora sono accesi sull'altro PC), condivisi ed amministrati tramite KVM, ecco perchè lo vedi così esteso...
come vedi i dati sterili di un benchmark o quelli letti su una testata, senza nessuna contestualizzazione, portano sempre a conclusioni sbagliate, proprio per mancanza di esperienza e di dati reali.
ti sto scaricando metro last light solo per farti vedere consumo e prestazioni relative a quel gioco, usato da tante testate per controllare i consumi delle schede.
OrazioOC
27-08-2020, 17:12
cut.
Tutto sto trattato politico per dirmi che hai castrato la scheda video talmente tanto per evitare di comprare una nvidia come la 1650 che è plug and play e per i watt che consuma ha pure performance migliori di quella 570?:rolleyes:
https://www.youtube.com/watch?v=jnvA9CXPICIhttp://
https://imgur.com/gQTQk4W
La 1650 è fatta apposta per stare in quei contesti dove bisogna andare meglio delle schede video integrate ma non necessitare del 6 pin, perchè dovrei prendere una scheda che di base sta a 160w di tdp e che conta solo su una versione mini itx che è anche difficile da trovare?:rolleyes:
e ci risiamo...
che tu mi fai vedere un video in cui hanno messo una 570 4GB a 1200mhz in UV misurandone il consumo su crysys 3 e poi mi fai vedere quanto vanno , con quei settaggi, su altri giochi, senza poi far vedere nuovamente il consumo puntuale gioco per gioco, non stai facendo un buon lavoro da recensore, ma solo un video per far qualche soldo con le visualizzazioni per vedere una cosa curiosa.
ogni singolo gioco usa la GPU in modo diverso e quindi la fa consumare in modo diverso, se non ci sono automatismi come nelle nvidia che regolano il tutto proprio basandosi sul power limit, massimizzandolo sempre.
se guardi la foto che ti ho mostrato, sulla dashboard, in alto a sinistra, vedrai l'occupazione della GPU, con in rosso spento l'occupazione dell'undercore, ed in rosso acceso l'occupazione delle CPU.
hai raggiunto il power limit solo se hai tutto rosso acceso e allora stai sfruttando la scheda al 100% delle sue possibilità (ma su giochi con UE4 è cosa più unica che rara).
diversamente la scheda consumerà in relazione all'occupazione delle CU.
come ti ho già detto, in navi hanno raddoppiato lo scheduling HW delle CU per massimizzare appunto l'uso di tutte le CU che si hanno (è questa la maggiore miglioria che si ha di navi e che ha sbloccato le prestazioni delle architetture AMD anche sui giochi che usano motori sponsorizzati da nvidia, ma, di per se, navi, non cambia molto come costruzione delle CU rispetto a polaris... è più avanzata, e di molto, Vega V II);
sono quindi passati ad un paradigma di regolazione basato sul power limit, come sulle nvidia. più di quello impostato non consumano e comunque arrivano sempre a consumare quella cifra, perchè massimizzano le prestazioni andando anche abbondantemente in overclock , se ce ne sono le condizioni, tutto in automatico.
comunque la gigabyte windforce costava 204 euro quando io ho preso la 570 a 120 e questa, già a 1200, consuma 3W in meno della windforce in overclock e 17 in più della windforce a default, ma che si traducono in ben pochi frame sui giochi (tra l'overclock e la base della 1650 passa il 10%, non ti credere, con in più un 28% in più di consumo, però....)
in tutti i casi, quando ne ho necessità, vado in overclock sulla 570 e ho prestazioni nettamente superiori ad una 1650 e anche una 1060, anche se ha consumi maggiori, ma ocmunque prestazioni sempre superiori e del 20%, ad una 1650 overclockata, mica poco...
quindi tra i 50 euro in meno come minimo (oggi la WF la trovi a 166,69 euro grazie ai rialzi del covid) e il 20% in più di prestazioni o steso consumo per stesse prestazioni, ma con totale assenza di rumore e calore, non c'è granchè da dire su quale offra sicuramente il miglior rapporto prestazioni per prezzo, anche se è un pezzo da museo.
io la tengo bassa esclusivamente per il rumore che è un parametro molto più importante per me di avere 10fps in più su 60, poi, in second'ordine, per il calore che produce, perchè avere roba che sta sopra i 60°C... già mi viene l'orticaria...
sul 3400G che ha questo PC c'è un AIO da 120mm (e solo perchè il noctua con una 140mm che avevo non entrava nel case... tra l'altro me ne sto quasi pentendo proprio per la 120mm che ha, che già così fa troppo rumore per i miei gusti!).
cdimauro
28-08-2020, 07:17
E adesso tutti i redattori che misurano i consumi delle GPU dovrebbero prendere lezioni dai tuttologi internettiani. Quante cose s'imparano nei forum...
Infine, e chissà perché, nei confronti prestazionali si punta il dito contro quelli "ottimizzati nVidia", e s'ignorano completamente quelli che lo sono per AMD.
Due pesi e due misure...
capire lo scopo e la sequenza logica per eseguire un test è essenziale; se non lo capisci, semplicemente non fai quello che ti sei prefisso nella tesi (misurare una variabile).
è la base della scienza applicata.
si parla di "quelli ottimizzati per nvidia" perchè nvidia ha la "cativa abitudine" di produrre (e pagare per l'utilizzo) tools chiusi che non offrono codice aperto (e quindi utilizzabile da chiunque).
restrizioni che comportano una penalizzazione prestazionale verso la concorrenza.
stessa cosa fa intel con le DLL matematiche e le AVX facendo in modo che il suo compilatore promuova codice ottimizzato per quelle istruzioni solo per i suoi processore, relegando gli altri all'uso delle unità FPU e se ne è avuta conferma con l'ultima versione di matlab in cui, riuscendo a mandare in debugging le DLL Intel, un ricercatore ha scoperto che in quel modo di esecuzione anche i ryzen avevano la possibilità di usare le AVX e quindi di superare largamente le prestazioni di un processore Intel (anche a pari numero di simd AVX utilizzate).
nei giochi il tutto si riflette sul calcolo della fisica, della IA, degli effetti sonori, in cui si usano spesso le AVX (e sempre più speso le AVX256) che hanno notevole vantaggio ulle FPU, da cui i minori risultati prestazionali ad alti framerate dei Ryzen in confronto agli Intel (il raffiungimento dei 240-300fps a ridicole risoluzioni con schede grafiche top).
orami è stato scovato l'esempio concreto di come Intel manipoli il mercato impedendo l'uso delle AVX tramite il suo compilatore e difficilmente si può trovare una scusante per questo modo di fare, perchè le AVX Intel le ha date in licenza ad AMD, che le ha del tutto compatibili con il codice Intel...
già successo nel 2009 con le SEE in cui Intel venne processata da FTC per pratiche anticoncorrenziali proprio sull'uso del suo compilatore, che compilava mmx e sse solo per i processori Genuine Intel e non anche per quelli VIA e AMD.
https://www.ftc.gov/sites/default/files/documents/cases/091216intelcmpt.pdf
https://www.amd.com/en/corporate/antitrust-ruling
al processo fu portata l'acusa che Intel constingesse (pagando profumatamente e intimidendole con la cessazione di ogni rapporto se si comportavano diversamente) solo le SH che producevano benchmark nell'uso del suo compilatore, dll e tools per taroccare così i valori prestazionali delle sue CPU, ma la questione è che lo stesso compilatore, dll e tools sono stati usati per anni per quasi la totalità della compilazione del nmondo X86 e le stesse limitazioni venivano fatte anche sui software che venivano prodotti con questi tools.
quella volta Intel se la cavò con 1 miliardo di dollari di risarcimento a fronte di 27 miliardi di dollari di guadagno in più stimato da FTC da quando incominciò a fare pratiche anticoncorrenziali a quando partì il processo, non considerando i 7 anni successivi di quando fu emessa effettivamente la sentenza, nel 2012, e gli altri 5 anni in più per aver ritrovato in AMD un degno attore del mercato CPU x86.
27 miliardi di dollari che sono usciti però dalle nostre tasche per acquistare processori a prezzi gonfiati oltremodo per aver fiaccato la concorrenza.
pratiche messe in atto dalle stesse persone che poi sono andate a lavorare per nvidia, guardacaso, nello stesso settore finanziario e con le stesse cariche amministrative, e che hanno partorito il GeForce Partner Program, abolito per facciata, ma trasformato in altro programma, epurato dai commi più sfacciati (come l'imposizione di non usare lo stesso brand tra shcede nvidia e AMD) e tutt'ora attivo.
il problema con il compilatore Intel c'è sempre stato e continua a perdurare; ieri era sulle SEEE, oggi è sulle AVX.
difendi l'indifendibile.
cdimauro
30-08-2020, 10:29
capire lo scopo e la sequenza logica per eseguire un test è essenziale; se non lo capisci, semplicemente non fai quello che ti sei prefisso nella tesi (misurare una variabile).
è la base della scienza applicata.
Allora dovresti capire perché NON abbia alcun senso fare una media dei consumi di diverse applicazioni quando lo scopo è quello di misurare il consumo "massimo" di un componente hardware, e che si tratti di GPU o CPU è del tutto indifferente.
si parla di "quelli ottimizzati per nvidia" perchè nvidia ha la "cativa abitudine" di produrre (e pagare per l'utilizzo) tools chiusi che non offrono codice aperto (e quindi utilizzabile da chiunque).
restrizioni che comportano una penalizzazione prestazionale verso la concorrenza.
E chi se ne frega: è un suo diritto supportare al meglio la SUA piattaforma, visto che è con quella che fa i soldi.
AMD potrebbe fare benissimo la stessa cosa, ma preferisce buttarsi sull'open source per risparmiare soldi, lasciando la maggior parte dell'onere della scrittura e/o mantenimento dei tool a terzi / appassionati.
stessa cosa fa intel con le DLL matematiche e le AVX facendo in modo che il suo compilatore promuova codice ottimizzato per quelle istruzioni solo per i suoi processore, relegando gli altri all'uso delle unità FPU e se ne è avuta conferma con l'ultima versione di matlab in cui, riuscendo a mandare in debugging le DLL Intel, un ricercatore ha scoperto che in quel modo di esecuzione anche i ryzen avevano la possibilità di usare le AVX e quindi di superare largamente le prestazioni di un processore Intel (anche a pari numero di simd AVX utilizzate).
Si vede che non ti sei preso nemmeno la briga di approfondire la questione leggendo la paginetta web in cui gli stessi autori di matlab hanno analizzato la questione, e hanno trovato che fosse un LORO problema di configurazione del loro tool.
Il link è passato nel thread "Ryzen" della sezione Processori: recuperalo e fatti una cultura, invece di riportare informazioni scorrette.
nei giochi il tutto si riflette sul calcolo della fisica, della IA, degli effetti sonori, in cui si usano spesso le AVX (e sempre più speso le AVX256)
Non esistono le "AVX256": le AVX, già dalla PRIMA versione, erano e sono a 256 bit.
Forse ti confondi con le AVX-2, dove sono state aggiunte parecchie nuove istruzioni.
Ma, in ogni caso, sia AVX sia AVX-2 sono entrambe a 256 bit.
Questo per sottolineare il tuo livello di "competenza" in materia.
Per il resto, purtroppo le AVX non sono tanto diffuse.
che hanno notevole vantaggio ulle FPU, da cui i minori risultati prestazionali ad alti framerate dei Ryzen in confronto agli Intel (il raffiungimento dei 240-300fps a ridicole risoluzioni con schede grafiche top).
Falso. I problemi delle prime due famiglie Ryzen erano dovuti alle unità SIMD sottodimensionate rispetto a quelle Intel: 4 unità a 128 bit contro 3 unità a 256 bit.
Ma con la terza famiglia AMD ha raddoppiato la dimensione delle unità SIMD, quindi adesso ha ben 4 unità a 256 bit contro le 3 di Intel. Dunque è in netto vantaggio da questo punto di vista.
Intel rimane in vantaggio soltanto nell'uso delle istruzioni FMA, dove è in grado di eseguirne 2 per ciclo di clock, mentre AMD, non avendo un'unità FMA vera e propria, è costretta a spezzare in due uop queste istruzioni, avendo un throughput dimezzato.
Quindi Intel avrebbe un vantaggio soltanto nel caso in cui si eseguissero 2 istruzioni FMA e una SIMD normale per ciclo clock, cosa che sfortunatamente non si può fare in un videogioco (mentre in codice come LINPACK è abbastanza comune).
Il vantaggio di Intel in questo caso è dovuto alle maggiori frequenze di clock dei suoi processori.
orami è stato scovato l'esempio concreto di come Intel manipoli il mercato impedendo l'uso delle AVX tramite il suo compilatore e difficilmente si può trovare una scusante per questo modo di fare, perchè le AVX Intel le ha date in licenza ad AMD, che le ha del tutto compatibili con il codice Intel...
già successo nel 2009 con le SEE in cui Intel venne processata da FTC per pratiche anticoncorrenziali proprio sull'uso del suo compilatore, che compilava mmx e sse solo per i processori Genuine Intel e non anche per quelli VIA e AMD.
https://www.ftc.gov/sites/default/files/documents/cases/091216intelcmpt.pdf
https://www.amd.com/en/corporate/antitrust-ruling
al processo fu portata l'acusa che Intel constingesse (pagando profumatamente e intimidendole con la cessazione di ogni rapporto se si comportavano diversamente) solo le SH che producevano benchmark nell'uso del suo compilatore, dll e tools per taroccare così i valori prestazionali delle sue CPU, ma la questione è che lo stesso compilatore, dll e tools sono stati usati per anni per quasi la totalità della compilazione del nmondo X86 e le stesse limitazioni venivano fatte anche sui software che venivano prodotti con questi tools.
quella volta Intel se la cavò con 1 miliardo di dollari di risarcimento a fronte di 27 miliardi di dollari di guadagno in più stimato da FTC da quando incominciò a fare pratiche anticoncorrenziali a quando partì il processo, non considerando i 7 anni successivi di quando fu emessa effettivamente la sentenza, nel 2012, e gli altri 5 anni in più per aver ritrovato in AMD un degno attore del mercato CPU x86.
27 miliardi di dollari che sono usciti però dalle nostre tasche per acquistare processori a prezzi gonfiati oltremodo per aver fiaccato la concorrenza.
pratiche messe in atto dalle stesse persone che poi sono andate a lavorare per nvidia, guardacaso, nello stesso settore finanziario e con le stesse cariche amministrative, e che hanno partorito il GeForce Partner Program, abolito per facciata, ma trasformato in altro programma, epurato dai commi più sfacciati (come l'imposizione di non usare lo stesso brand tra shcede nvidia e AMD) e tutt'ora attivo.
il problema con il compilatore Intel c'è sempre stato e continua a perdurare; ieri era sulle SEEE, oggi è sulle AVX.
Ancora una volta non sai di cosa parli.
Il compilatore di Intel funziona esattamente allo stesso modo, ma evidentemente non ti sei neppure chiesto per quale motivo l'autorità antitrust non sia intervenuta nuovamente.
Il motivo è molto semplice: Intel NON aveva messo nella documentazione del compilatore il suo comportamento A DEFAULT. DOPO la condanna ha cambiato la documentazione evidenziando che a default il codice generato è ottimizzato per ALCUNI dei suoi processori (in realtà per ALCUNE micro-architetture. Quindi nemmeno per tutte; e anche qui per ovvi motivi che non sto nemmeno a spiegare).
Quindi se uno sviluppatore volesse compilare il suo progetto per le AVX (sì, ha capito bene: puoi farlo anche per queste estensioni SIMD) deve semplicemente utilizzare degli appositi flag per abilitarle, e il suo codice funzionerà su TUTTI i processori che le supportino.
Ovviamente il codice generato sarà, in ogni caso, ottimizzato per ALCUNE sue micro-architetture.
difendi l'indifendibile.
Io almeno difendo la realtà e la conoscenza: tu soltanto la tua marca del cuore (e non si sa bene nemmeno il perché). Spot the difference...
Sempre meglio dei VegaWatt. :asd:
In realtà girano voci terribili sulla rtx 3090 : 350 watt di tdp !!!
GTX 590 il ritorno o la vendetta...
OrazioOC
30-08-2020, 12:14
In realtà girano voci terribili sulla rtx 3090 : 350 watt di tdp !!!
GTX 590 il ritorno o la vendetta...
Girano voci altrettanto terribili, che amd al momento non ha neanche una gpu che batta la 1080 ti di quasi 4 anni fa. :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.