|
|
|
![]() |
|
Strumenti |
![]() |
#21 |
Senior Member
Iscritto dal: Feb 2016
Messaggi: 758
|
|
![]() |
![]() |
![]() |
#22 |
Senior Member
Iscritto dal: Dec 2005
Messaggi: 20689
|
Ma anche no.
__________________
Wer nicht lösungsorientiert handelt bleibt Bestandteil des Problem |
![]() |
![]() |
![]() |
#23 |
Junior Member
Iscritto dal: Apr 2016
Messaggi: 11
|
Queste schede video sono attaccate al passato (PC express, pin di alimentazione) non vedo come possano avere un futuro. Dovrebbero invece prendere esempio da Intel, che fa CPU&GPU tutto in uno e con performance/watt eccellenti.
|
![]() |
![]() |
![]() |
#24 |
Senior Member
Iscritto dal: May 2005
Città: Roma
Messaggi: 9615
|
La sagra delle cavolate
![]() |
![]() |
![]() |
![]() |
#25 |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
...numeri ce ne sono pochi, ma andate a leggere le specs qua' e la;
polaris sembra accreditata di 2304 SP, ma la sua dimensione e' quasi il doppio rispetto ad un ipotetico die shrink parametrizzato appunto sul numero di SP, ed infatti sembra che sia anche doppio il numero dei transistor totali. GCN4 in pratica raddoppia i transistor rispetto a GCN3, e c'e' un motivo logico: la tassellatura, usata su Nvidia e' inefficiente su GCN3 per via della poca profondita' della pipeline, che costringe AMD a compiere i calcoli in 2 cicli clock sugli SP, quando nvidia li puo' compiere in un ciclo. d'altronde ad nvidea mancano i reg per singolo stadio pipeline per l'async shaders, cosi' da renderla meno efficiente per quanto riguarda lo sfruttamento delle risorse. GNC4 raddoppia la profondita' di pipeline a 16 stadi, utilizzando per ogni stadio un reg.ID. quindi, sulla carta, i 2304 SP di polaris varrebbero esattamente il doppio di GNC3, anche se la maggior lunghezza della pipeline porta a latenze maggiori. la differenza maggiore pero' e' che grazie al processo produttivo ed anche all'allungamento della pipeline (che rende il percorso minimo sui transistor piu' breve), potra' clockare molto di piu' (a pari PP alcuni processori arrivarono a clockare il 50% in piu', riuscendo a mantenere quasi lineare il rapporto frequenza/consumo). quindi i 2304 SP di polaris, a pari frequenza varrebbero come 2304 SP di GNC3 in async shaders (ma anche qui ci sono dei giovamenti nell'allungamento della pipeline, pari ad un netto margine in piu' di sfruttamento per costruzioni superiori a 8 passaggi), e vale piu' del doppio in tessellation, evitando l'andirivieni tra' SP e caches, riuscendo ad eseguire in cluster in un solo passaggio. in ultimo polaris sembra sia accreditato di 1150/1200 mhz. a conti fatti polaris in tassellation avra' il 30% in piu' di prestazioni di fuji XT (probabilmente qualcosa in meno per via dell'uso delle GDDR5x invece che HBM, anche se in quantita' doppia, e sufficente per non fare da collo di bottigia), mentre in async shareds dovrebbe perdere il 30% delle prestazioni rispetto a fujiXT, ma anche qui guadagnare qualcosa dal fatto di una migliore organizzazione dei possibili thread da poter inserire nelle pipeline piu' lunghe (con la migliore ottimizzazione sarebbe possibile ottenere quasi stesse prestazioni come avviene in HT per i processori intel pre SB). il tutto in un die che dovrebbe ridursi a 360mm^2 (grossolani conti; circa il 60% di quello di fijiXT), con un consumo di 100-120W. le schede, se vendute a 500 euro, garantirebbero comunque un guadagno del 50% in piu' rispetto a Fury X, quindi con abbondanti margini per scontarla e proporla a prezzi meno esosi per riguadagnare quote di mercato. Nvidia non sta' con le mani in mano; si sa' poco sull'architettura ed ancor meno su eventuali problemi nell'aggiungere i probabili reg per stadio pipeline (mancanza che fa' penare le prestazioni in async shareds), ma la logica porta a pensare che le differenze non siano molto alte... questione di fondo pero' e' che AMD e' da dicembre dell'anno scorso che gira con i prototipi funzionanti (e bene), di nvidia non si ha nessuna certezza che abbia gia' qualcosa di robusto in mano.... un delay di qualche mese che potrebbe garantire ad AMD un recupero sulle quote di mercato. Ultima modifica di lucusta : 08-04-2016 alle 20:09. |
![]() |
![]() |
![]() |
#26 | |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
Iris pro 580 e' l'unica cosa decente d'intel, capace di superare le APU di AMD, ma per come se la fa' pagare... gia' oggi al prezzo di un processore che ha Iris Pro, il piu' economico i5-5675C a 270 euro, puoi permetterti di acqistare un insulso AMD Athlon X4 860K a 70 euro, ed una R9 380, che a conti fatti andra' il doppio e senza i problemi dei driver intel.... per i mobile, con il 6200... un portatile da minimo 1200 euro, contro uno con carrizo+scheda dedicata a 600-700 euro. quando, e se, intel decidera' di fare buone APU, magari potra' uscire qualcosa di decente, ma non certo di conveniente. |
|
![]() |
![]() |
![]() |
#27 |
Junior Member
Iscritto dal: Apr 2016
Messaggi: 11
|
@locusta
Leggendo qua http://www.hwupgrade.it/news/skvideo/geforce-gtx-970-la-scheda-video-piu-popolare-secondo-il-sondaggio-di-steam_60357.html e passando di qua http://store.steampowered.com/hwsurvey/ puoi trarre le tue conclusioni riguardo alla mia opinione. @Bivozz ti faccio un esempio. Se dovessi scegliere tra questo http://www.notebookcheck.net/Intel-Pentium-N3700-SoC.146638.0.html e questo http://www.notebookcheck.net/AMD-A-Series-A4-6210-Notebook-Processor.115404.0.html cosa scegli di meglio per te? Per le GPU il discorso non è molto diverso. |
![]() |
![]() |
![]() |
#28 |
Senior Member
Iscritto dal: Sep 2010
Messaggi: 4359
|
@grilloparlanteIII
l'utilizzo della edram, ha costi irrisori per Intel, rispetto a qualsiasi altro competitor fabless. Che le gpu discrete siano antiquate, lo vedi solo tu (VR non ti dice niente?) . Nell'integrazione massiva di gpu-cpu, AMD è quella che ci ha creduto per prima, rischiando anche di rimetterci le penne, con l'acquisizione di ATI... poi ti rendi conto che stai confrontando 14nm finfet di Intel con i 28nm planari? Ma ti suggerisco invece dei confronti suggestivi, per cì dire: Carrizo vs Sandybridge Carrizo vs Haswell i prodotti excavator si piazzano nel mezzo.. ps, in questo caso non guardare le prestazioni della GPU, per motivi a noi sconosciuti i produttori hanno deciso di utilizzare la piattaforma di Kabini, e quindi la gpu è costretta a lavorare in single channel... ![]() Anzi per certi versi sono pure eccezionali, se consideriamo le condizioni operative: 64 bit a 1600MHz, per una bandwidth di appena 10GB/s Ultima modifica di tuttodigitale : 09-04-2016 alle 11:39. |
![]() |
![]() |
![]() |
#29 |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
ho visto operare APU in 17" con ram DDR1600 settate a 1333....
stupefacente. (nel senso che chi li integra si fa' di brutto). |
![]() |
![]() |
![]() |
#30 | |||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Quelle con l'eDRAM sono superiori, ma c'è da dire che questa memoria integrata può essere usata trasparentemente anche dalla CPU, in quanto funge da cache L4. Quindi ha un suo perché, sebbene non ci si possa aspettare miracoli. Per il resto faccio notare che l'utente in questione: - non ha parlato di costi; - ha soltanto parlato di "performance/watt eccellenti". In quest'ultimo caso mi pare che l'affermazione rimanga corretta. Quote:
Quote:
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|||
![]() |
![]() |
![]() |
#31 | |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
e' evidente pero' che Intel non ha intenzione assolutamente, per ora, di proporre una ottimale politica dei prezzi. sia chiaro, non dico che il costo di un i5 desktop che integra iris pro sia eccezionalmente alto, ma che sia eccezionalmente inutile si. il mercato delle APU si gioca sui processori mainstream, da pentium a i3, e ad oggi Intel non ha nessuna intenzione di produrre HW che riesca a soddistare "semplicemente" queste esigenze. Ti ricordo che la maggior parte dell'uso che si opera con questo tipo di CPU non richiede prestazioni elevatissime, e che la maggior parte delle funzioni richieste, come ad esempio puo' essere la decodifica video, viene effettuata dalla metrica fissa del processore, che ci sarebbe anche senza GPU. quindi, nella pratica, queste GPU sono prettamente riservate ai casual gamer, ma soffrono pesantemente dello squilibrio CPU/GPU, ossia di una potenza elaborativa sulla CPU nettamente piu' performante di quello che puo' offrire la GPU e, se vuoi avere un "semplice" PC con APU intel, non puoi fare a meno di dover pagare potenza inutile. i 65W si devono solamente a questo. quando viene richiesta piena potenza alla GPU (ed e' alquanto facile considerando le potenzialita' dell'HW), le richieste per la CPU sono estremamente basse. ho un A10-7870K, la cui GPU e' piu' performante di una Iris Pro anche solo considerando le frequenze di default (866mhz, ma si puo' spingere a 1150mhz); anche in overclock GPU le richieste ai core della CPU sono cosi' esigue che a 3ghz il computo e' inferiore al 60%, ossia meno della meta' .... prove pratiche mi hanno dimostrato che basterebbe un settaggio a 1.8ghz (neanche a 2.4ghz si rilevano picchi tali da inficiarne le prestazioni medie). a questo punto una Iris Pro quanto credi possa intaccare sulla potenza di un i5 a 3 e passa ghz? Il lavoro prodotto da una Iris Pro non saturerebbe un buon celeron, figuriamodi un pentium o un i3. le prestazioni richieste sui core CPU sono cosi' scarse che e' grasso che cola se tutti i core arrivano a consumare 12W sugli oltre 65W richiesti nel gaming per quella APU; Iris Pro assorbe 40W minimo per avere quelle prestazioni, a 14nm. riporta i consumi a 28nm e scoprirai che quei 40W diventano 160W, per un computo gaming inferiore all'apu che ho e che fa' circa 100W in condizioni gaming, compreso il consumo CPU... vuoi abbassare le stime ponendo il consumo dei core a 30W? Iris Pro se ne prende 35, e 35x4 fa' 140W, comunque tanti. quindi dire che le CPU intel con Iris Pro siano efficienti... ci starei un po' attento... e poi e' tutto rapportato al costo. |
|
![]() |
![]() |
![]() |
#32 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Non ho dati (più o meno) ufficiali su quanto incida la componente GPU sul consumo totale, per cui mi fermo qui.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
![]() |
![]() |
![]() |
#33 | |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
|
|
![]() |
![]() |
![]() |
#34 | |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
https://www.youtube.com/watch?v=xSUiYBYEijo qui puoi vedere l'uso della CPU in un gioco a 720P e 1080P con un 6200; rari i casi in cui la CPU viene richiesta per oltre il 40% dell'occupazione; la questione e' che nessuno che fa' questi test e benchmarck si ricorda di guardare a quanto viene configurata la CPU quando interviene la parte grafica. su AMD setta 3ghz, su un processore del genere, e con quella GPU, difficile che si superi 1.8ghz. https://www.youtube.com/watch?v=wxpw3dPOxEQ qui puoi vedere che un 7850K con GPU settata a 1029Mhz occupa la CPU all'80% delle sue possibilita', ma ti ripeto: la GPU di quel processore e' gia' di per se piu' performante nel settaggio standard, qui c'e' un +20% (rispetto ad un 7870K che ha 866 come frequenza di default); quella CPU setta 3ghz/1.15V quando lavora con la GPU; e' un settaggio del turbo core... al massimo delle richieste per quelle prestazioni quella CPU consuma 35W; la GPU incomincia a consumare ben oltre i 70W (in default, a 1030 e' probabile che superi gli 85W, con un totale di 120W). il consumo di quella CPU a 1.8ghz al 40% dell'occupazione dei core (media ponderata), e' stimabile in poco oltre i 10W; conta che un celeron j1900 quad core 22nm a 2ghz e turbo brust a 2.4ghz consuma 10W, quindi dire che un 14nm quad core va' anche oltre con una richiesta di potenza computazionale di 1/3 e' un'esagerazione. risulta percio' che se la CPU consuma 62W in gaming (come rilevato da diverse testate), 50W sono solo per la parte grafica. in torture test la CPU+GPU (sempre per quelle testate), arriva a 75.5W, e se fai 10W/40% ottieni proprio i 25W di differenza, ma a 1.8ghz; questo ti mostra un'altra cosa: i 95W del 6700K sono raggiunti a 4ghz. se fosse una dipendenza bilineare tra' frequenza e voltaggio il 6700K dovrebbe consumare al massimo 75W. cio' significa che a per quelle frequenze (4ghz) intel deve ricorrere ad un aumento consistente di voltaggio, che fa' schizzare il processore a 95W di consumo, oltre 20W di piu'... Intel perde sensibilmente in efficienza appena si superano i 3ghz sulla CPU (cosa che probabilmente accadra' anche con i 14nm samsung/GF). quindi aspettiamoci CPU sempre meno clockate e clockabili. detto in sintesi? l'efficienza intel e' solo grazie al PP, ma non certo per come vengono prodotte e gestite le prestazioni; quando anche AMD stara' a 14nm, credo che non ci siano tante storie da fare... AMD e' avvezza a dover rendere efficienti i suoi circuiti per riuscire a star dietro a PP 5 anni piu' avanzati... trasmettere questa pratica ai processi a 14nm significa poter gestire un ottimale bilanciamento tra' consumi e prestazioni; oggi si guardano le prestazizoni, ma a quanto si dice le nuove APU ZEN avranno TDP da 95W, ossia lo stesso di oggi... quindi stessa richiesta di dissipazione, stesso consumo, PP di 1/4, prestazioni con un fattore x4... stesso dicasi sulle APU per mobile. intel dovra' darsi parecchio da fare, stavolta. Ultima modifica di lucusta : 10-04-2016 alle 20:35. |
|
![]() |
![]() |
![]() |
#35 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Purtroppo ieri sera ho avuto problemi con l'ADSL, e non ho potuto guardare i video. Oggi ho visto che si tratta per entrambi di test con la IrisPro, che è un'altra classe di GPU (Intel non ha certo tirato fuori queste GPU per competere con le APU di AMD).
Non ho tempo, e devo scappare a lavoro, ma velocemente riporto un paio di punti: - il consumo non dipende linearmente da frequenza e voltaggio; - per confrontare i consumi delle CPU (lasciando un attimo da parte la GPU) bisognerebbe prendere core che hanno prestazioni simili, e usando le stesse schede grafiche discrete; - i 14nm della concorrenza non sono paragonabili a quelli di Intel. Tutt'altro. Ed è uno scenario che si ripeterà coi 10nm; - Zen arriverà fra un po' di mesi, per cui non mancherà molto per vedere se questi dati sono corretti.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
![]() |
![]() |
![]() |
#36 | |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
per la parte grafica credo che stia facendo la corte ad AMD per il prossimo accordo per le licenze su brevetti, visto che quello con Nvidia sta' scadendo e che (per altre ragioni), gli e' costato un patrimonio (ma sembra che nvidia richieda la stessa cifra un'altra volta, infischiandosene del fatto che la prima volta gli sono stati dati per altre ragioni)... |
|
![]() |
![]() |
![]() |
#37 | ||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Quote:
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||
![]() |
![]() |
![]() |
#38 |
Senior Member
Iscritto dal: May 2005
Città: Roma
Messaggi: 9615
|
infatti sembra strano anche a me che facciano processori a 8 core nel settore mainstream
![]() Mi dispiace poi ma debbo spezzare una lancia a favore delle gpu discrete: queste rappresentano un pezzo di storia dell'hardware per computer da ormai 15 anni abbondanti, hanno un loro perché , una loro materialità (ed anche per questo è bello comprarle, averle e montarle sui propri computer, tutto ciò lo indipendentemente dalle prestazioni lato consumi e dai costi, si sa, purtroppo, che è un pezzo in più da comprare e che costa, se vuoi giocare come si deve). Riguardo all'affermazione dell'utente nella pagina precedente si critica più che altro l'affermazione nella quale dice che le schede video discrete sono attaccate al passato (PCI express, pin di alimentazione), non vedo come possano avere un futuro "cito testuali parole da lui dette". Non si critica certo il fatto dei consumi. Allora dovrebbero togliere anche gli alimentatori da mezzo: non ha molto senso, da questo punto di vista ciò che ha detto. |
![]() |
![]() |
![]() |
#39 |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
in realta' non ha tutti i torti...
anni addietro si era pensato di fare delle dual socket, uno per la CPU ed uno per la GPU; ed oggi, con gli interposer su GPU non sarebbe nemmeno strano se succedesse, ma si dovrebbe quantomeno standardizzare lo socket GPU, il che renderebbe il tutto decisamente difficile. al tempo si parlava di chip memory hub, un controller separato che gestiva la ram sia per il processore e per la GPU (staccato dal classico northbridge) ed anche questo "aggiornabile", capace di minimizzare la RAM video, usata come baffer, e sfruttare la ram di sistema, molto piu' economica e potenzialmente altrettanto veloce utilizzando il multichannel... erano belle fantasie, inattuabili oggi per molte questioni (l'idea era Rambus, prima che diventasse un patent troll). per quanto riguarda le CPU, anche se su X99, Broadwell-E sta' scendendo dal piedistallo (d'altronde i V5 erano gia' fuori da tempo ed era anche questo prevedibile), quindi e' presumibile, ma sono speculazioni personali da prendere con lunghe pinze, che kabe-lake presentera' 8 core mainstream su i7 e 6 core su i5... e' un conto semplice: la piattaforma X99 non puo' stare, per via del costo, nel mercato mainstream, ma skylike, cosi' come' e' gia' tirato per il collo sui 4ghz (perdendo considerevolmente in efficienza) e l'unica cosa per aumentare le prestazioni (e stare vicini a Zen) e' quella di aumentare i core, ma conseguenzialmente di abbassare le frequenze operative (e limitare la parte grafica... lo spazio e' quello e a meno di non dovre cambiare ulteriormente socket, anche l'almentazione). difficile che vedremmo i7 kabe-like oltre i 3.2-3.3ghz. Zen, dovrebbe rimanere, se queste ipotesi sono corrette, leggermente sotto a pari frequenza (anche questo difficile che verra' clockato a piu' di 3.4ghz), ma il divario sara' realmente piccolo.... Zen pero' potra' fare meglio sui consumi, richiedendo 75W invece che 95W (sul top), e questo anche in considerazione che l'APU Zen non potra' fare piu' di 95W SDP (in game si tocchera' comunque i 120W). per polaris 11 invece sembra ci siano 1024 SP a piena pipeline (16 stadi), capace di farla valere come una R9 380 (forse con GDDR5x limitera' i danni del bus a 128bit e si piazzera' nel mezzo tra' 380 e 380x grazie soprattutto ad un consistente aumento della caches dai 768KB a probabilmente 2MB). l'APU ZEN dovrebbe proporre questa soluzione grafica. Ultima modifica di lucusta : 12-04-2016 alle 18:33. |
![]() |
![]() |
![]() |
#40 |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Alcune voci di tempo fa affermavano che Zen dovrebbe avere prestazioni simili a quelle di Haswell. Vedremo, ovviamente, se saranno confermate.
Quanto a Kabylake, sarà il primo esemplare del nuovo "passo" (ottimizzazione) di Intel, che non è più basato sul tick-tock, ma sul "Process-Architecture-Optimization". Dunque aspettarsi consumi e/o prestazioni simili a Skylake non lo credo possibile: ci saranno sicuramente dei miglioramenti. Né sono circolate voci di possibili adozioni di più di 4 core per soluzioni mainstream basate su questa nuova (micro)architettura, per cui è plausibile che le configurazioni che arriveranno ai consumatori saranno come quelle attuali. P.S. Il processo a 22nm di Intel era paragonabile a quello a 28/26nm della concorrenza, in quanto l'azienda, all'epoca ha sempre privilegiato le prestazioni alla densità (e consumi). Viceversa, i 14/16nm della concorrenza non sono certo paragonabili ai 14nm di Intel, come già detto. Per cui l'impatto del nuovo processo produttivo che sarà adottato da AMD non sarà dell'ordine di grandezza che avevi espresso prima. Anche qui... vedremo.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 08:49.