View Full Version : Le prime schede video Polaris di AMD al debutto al Computex di Taipei?
Redazione di Hardware Upg
08-04-2016, 10:01
Link alla notizia: http://www.hwupgrade.it/news/skvideo/le-prime-schede-video-polaris-di-amd-al-debutto-al-computex-di-taipei_62006.html
Questa l'indiscrezione emersa online, formulata su considerazioni pratiche e di buon senso. Resta in ogni caso da verificare quando queste schede, basate su GPU Polaris 10, saranno effettivamente messe in vendita sul mercato
Click sul link per visualizzare la notizia.
gagliardi88
08-04-2016, 10:55
bazzico poco ultimamente nel mondo GPU, e non ci capisco più nulla. troppe sigle e troppe famiglie parallele
gd350turbo
08-04-2016, 11:00
e soprattutto troppo marketing fuffa !
gagliardi88
08-04-2016, 11:03
e soprattutto troppo marketing fuffa !
Dovrei cambiare scheda video ( 650Ti), ma leggendo qua e la noto che va di moda utilizzare vecchie architetture, aumentare un po la frequenza e cambiare nome.
Erro?
Nvidia è già uscita con quella nuova?
ma non dovrebbero produrre con il nodo 14nm ma di Samsung/GF? :stordita:
mentre è nVidia con i 16nm TSMC...
:cool:
Regna il caos sui nanometri dei prodotti AMD,
come ho gia' segnalato diverse volte.
thunder_bolt96
08-04-2016, 11:50
Che confusione...mi sà che a questo punto conviene aspettare il 2017 per vedere a confronto Pascal e Vega, (tanto c'è poco tempo tra l'uscita di Polaris e Vega) sperando in delle schede veramente valide
Dovrei cambiare scheda video ( 650Ti), ma leggendo qua e la noto che va di moda utilizzare vecchie architetture, aumentare un po la frequenza e cambiare nome.
Erro?
Nvidia è già uscita con quella nuova?
Aspetta! entro fine estate usciranno le prime GPU a 14nm, facendo dopo quasi 5 anni un cambio di processo produttivo. Consumi e prestazioni imparagonabili alle attuali 28 nm tirate al limite. Passerà un altro lustro come minimo prima di avere un altro balzo di performance del genere. Anche NVIDIA presenterà l'upgrade nello stesso periodo all'incirca.
gd350turbo
08-04-2016, 12:54
L'estate arriva tra tre mesi...
Le vedo troppo vicina come data...
Io direi di aspettare i primi mesi del 2017 !
Apix_1024
08-04-2016, 13:11
AMD ha presentato una demo con le GPU Polaris funzionante a gennaio al CES di Las Vegas.
Direi che presentare i modelli di gpu al computerx e averle sul mercato in estate, magari a settembre, sia abbastanza realistico.
intanto però buttano lì sul fuoco altre slide :asd: fantastici quelli di amd...:mc:
Apix_1024
08-04-2016, 13:22
Guarda che questa volta di slide ne hanno fatte ben poche e infatti ad ogni news vengono riproposte quelle 3 o 4, ne hanno fatte molte di più quelli di Nvidia.
Ma ormai è una dicerie e anche se ne facessero una sola di slide qualcuno farebbe la battuta.
ovvio che la mia è una battuta ma resta il fatto che stanno alzando il fuoco sotto la piastra senza mai buttare carne al fuoco...
slide poche? e ci credo ormai che altro avrebbero da dire se non: veci siamo in ritardo... sti bon che prima o dopà av demma la vga noova...
battute a parte si aspetta per forza anche perchè passare ai 14nm è molto allettante per consumi e prestazioni!
RedEyes83
08-04-2016, 13:41
Spero per settembre di vedere sia le proposte mediogamma amd e nvidia in vendita, sia mai che passo alle rosse questa volta :D
ROBHANAMICI
08-04-2016, 14:15
Mi sa che ci ritorno anch'io alle rosse (dalla mitica 5850), se mi propineranno una bella scheda video a 8 gb di ram gddr5x, come è successo per le r9 390. Mi sa che le nuove nvidia pascal da 8 giga costeranno un occhio della testa, a meno che non diventino il nuovo standard di riferimento per il settore di fascia medio-alta. Però provenendo da una nvidia 970 dubito un po' del salto prestazionale, vedremo.
Se sono confermate le sigle dei prodotti Polaris, per me aumenta ancora di più la confusione, in quanto è stato detto che le top di gamma saranno le Vega, ma intanto 490X e 490 nell'immaginario collettivo significa invece proprio top di gamma. Ma che senso avrebbe rinnovare le top di gamma dopo pochi mesi, dopo un periodo in cui per rinnovare servivano anni?
RedEyes83
08-04-2016, 14:59
Infatti voglio vedere cosa tirano fuori sui 450€, non prendo di sicuro un rebrand della vecchia generazione, anch'io avevo la 970 e l'ho rivenduta adesso per non perderci troppo, tanto fino a settembre non ho tempo per giocare.
Polaris sarà un semplice die-shrink.
Se utilizzera' HBM1 sarà ancora limitato a 4GB,
forse utilizzerà memorie piu' lente e potrà superare questa soglia,
a scapito delle prestazioni.
Tra Pascal e Polaris misureremo probabilmente il massimo distacco tra NVIDIA e AMD da sempre.
Tra Pascal e Polaris misureremo probabilmente il massimo distacco tra NVIDIA e AMD da sempre.Se la "vera" top di gamma sarà Vega ed uscirà a breve distanza da Polaris, Polaris andrà confrontata con quanto troverà sul mercato e, successivamente, Vega potrà essere confrontata con Pascal.
Voglio dire che se quando uscirà Polaris uscirà anche Pascal, allora avrà senso un confronto, altrimenti Pascal dovrà confrontarsi con Vega, mentre Polaris con l'attuale linea Nvidia.
io direi anche che sia Polaris che Zen saranno a 28nm e nel 2017, non ce le dimentichiamo le tue pendolinate passate ;)
A me fa piu' ridere sentir parlare di "Nuova architettura" ogni anno :O
Mai fatto pronostici sulle schede video...
Cosa non ti convince di quanto ho detto?
Per quanto riguarda Zen, se al Computex non ne sentiro' parlare... significhera' che è un progetto morto.
1- amd dalle 7000 alle 300 non ha mai parlato di "architettura nuova", ma di aggiornamento come fa con le cpu.
2- fare uno shrink paro paro dei chip studiati a 28nm su processo planare ai 14nm su processo FF è pressoché impossibile e per di più inutile e costoso tanto quanto rivedere l'architettura perché dovresti riprogettarla.
3- la notizi parla di gddrx, perché parlate di hbm?
ps. OT parlare di Zen come progetto morto quando c'è in giro un ES step A0 a 3ghz mi pare al quanto rischioso
1) Le 300 in generale YAWN, ma Fiji era un'architettura nuova fino al giorno in cui è uscita.
2) Perche' tuttora l'ipotesi piu' probabile resta hbm1.
3) Non è rischioso, i prodotti si possono cancellare in qualsiasi momento, concorderai che se al Computex non esce niente su Zen, bisognerà trarre qualche conseguenza.
Concordi almeno su Zen - Computex?
Apix_1024
08-04-2016, 16:36
ignore list la soluzione ;)
Mamma mia... qua tutti a parlare di architetture nuove o vecchie.
Ma alla fine non sono le prestazioni (e per qualcuno i consumi) a contare? Che ce ne frega di quale architettura è? :oink:
a volte credo che tu ti masturbi al pc quando scrivi certe caxxate, comincio a credere che tu sia davvero pagato per trollare perchè neanche il più coriaceo dei fanboy sarebbe sempre pronto in prima fila a scaricare merda così gratuitamente.
... :mbe:
1)
2) Perche' tuttora l'ipotesi piu' probabile resta hbm1.
Ma anche no.
grilloparlanteIII
08-04-2016, 18:08
Queste schede video sono attaccate al passato (PC express, pin di alimentazione) non vedo come possano avere un futuro. Dovrebbero invece prendere esempio da Intel, che fa CPU&GPU tutto in uno e con performance/watt eccellenti.
ROBHANAMICI
08-04-2016, 18:27
La sagra delle cavolate :rolleyes: . Vediamo il prossimo a chi la spara più grossa.
...numeri ce ne sono pochi, ma andate a leggere le specs qua' e la;
polaris sembra accreditata di 2304 SP, ma la sua dimensione e' quasi il doppio rispetto ad un ipotetico die shrink parametrizzato appunto sul numero di SP, ed infatti sembra che sia anche doppio il numero dei transistor totali.
GCN4 in pratica raddoppia i transistor rispetto a GCN3, e c'e' un motivo logico: la tassellatura, usata su Nvidia e' inefficiente su GCN3 per via della poca profondita' della pipeline, che costringe AMD a compiere i calcoli in 2 cicli clock sugli SP, quando nvidia li puo' compiere in un ciclo.
d'altronde ad nvidea mancano i reg per singolo stadio pipeline per l'async shaders, cosi' da renderla meno efficiente per quanto riguarda lo sfruttamento delle risorse.
GNC4 raddoppia la profondita' di pipeline a 16 stadi, utilizzando per ogni stadio un reg.ID.
quindi, sulla carta, i 2304 SP di polaris varrebbero esattamente il doppio di GNC3, anche se la maggior lunghezza della pipeline porta a latenze maggiori.
la differenza maggiore pero' e' che grazie al processo produttivo ed anche all'allungamento della pipeline (che rende il percorso minimo sui transistor piu' breve), potra' clockare molto di piu' (a pari PP alcuni processori arrivarono a clockare il 50% in piu', riuscendo a mantenere quasi lineare il rapporto frequenza/consumo).
quindi i 2304 SP di polaris, a pari frequenza varrebbero come 2304 SP di GNC3 in async shaders (ma anche qui ci sono dei giovamenti nell'allungamento della pipeline, pari ad un netto margine in piu' di sfruttamento per costruzioni superiori a 8 passaggi), e vale piu' del doppio in tessellation, evitando l'andirivieni tra' SP e caches, riuscendo ad eseguire in cluster in un solo passaggio.
in ultimo polaris sembra sia accreditato di 1150/1200 mhz.
a conti fatti polaris in tassellation avra' il 30% in piu' di prestazioni di fuji XT (probabilmente qualcosa in meno per via dell'uso delle GDDR5x invece che HBM, anche se in quantita' doppia, e sufficente per non fare da collo di bottigia), mentre in async shareds dovrebbe perdere il 30% delle prestazioni rispetto a fujiXT, ma anche qui guadagnare qualcosa dal fatto di una migliore organizzazione dei possibili thread da poter inserire nelle pipeline piu' lunghe (con la migliore ottimizzazione sarebbe possibile ottenere quasi stesse prestazioni come avviene in HT per i processori intel pre SB).
il tutto in un die che dovrebbe ridursi a 360mm^2 (grossolani conti; circa il 60% di quello di fijiXT), con un consumo di 100-120W.
le schede, se vendute a 500 euro, garantirebbero comunque un guadagno del 50% in piu' rispetto a Fury X, quindi con abbondanti margini per scontarla e proporla a prezzi meno esosi per riguadagnare quote di mercato.
Nvidia non sta' con le mani in mano; si sa' poco sull'architettura ed ancor meno su eventuali problemi nell'aggiungere i probabili reg per stadio pipeline (mancanza che fa' penare le prestazioni in async shareds), ma la logica porta a pensare che le differenze non siano molto alte... questione di fondo pero' e' che AMD e' da dicembre dell'anno scorso che gira con i prototipi funzionanti (e bene), di nvidia non si ha nessuna certezza che abbia gia' qualcosa di robusto in mano.... un delay di qualche mese che potrebbe garantire ad AMD un recupero sulle quote di mercato.
Queste schede video sono attaccate al passato (PC express, pin di alimentazione) non vedo come possano avere un futuro. Dovrebbero invece prendere esempio da Intel, che fa CPU&GPU tutto in uno e con performance/watt eccellenti.
in quale universo parallelo succede questo?
Iris pro 580 e' l'unica cosa decente d'intel, capace di superare le APU di AMD, ma per come se la fa' pagare... gia' oggi al prezzo di un processore che ha Iris Pro, il piu' economico i5-5675C a 270 euro, puoi permetterti di acqistare un insulso AMD Athlon X4 860K a 70 euro, ed una R9 380, che a conti fatti andra' il doppio e senza i problemi dei driver intel....
per i mobile, con il 6200... un portatile da minimo 1200 euro, contro uno con carrizo+scheda dedicata a 600-700 euro.
quando, e se, intel decidera' di fare buone APU, magari potra' uscire qualcosa di decente, ma non certo di conveniente.
grilloparlanteIII
08-04-2016, 20:37
@locusta
Leggendo qua http://www.hwupgrade.it/news/skvideo/geforce-gtx-970-la-scheda-video-piu-popolare-secondo-il-sondaggio-di-steam_60357.html
e passando di qua http://store.steampowered.com/hwsurvey/
puoi trarre le tue conclusioni riguardo alla mia opinione.
@Bivozz ti faccio un esempio.
Se dovessi scegliere tra questo
http://www.notebookcheck.net/Intel-Pentium-N3700-SoC.146638.0.html
e questo
http://www.notebookcheck.net/AMD-A-Series-A4-6210-Notebook-Processor.115404.0.html
cosa scegli di meglio per te? Per le GPU il discorso non è molto diverso.
tuttodigitale
09-04-2016, 11:34
@grilloparlanteIII
l'utilizzo della edram, ha costi irrisori per Intel, rispetto a qualsiasi altro competitor fabless.
Che le gpu discrete siano antiquate, lo vedi solo tu (VR non ti dice niente?) . Nell'integrazione massiva di gpu-cpu, AMD è quella che ci ha creduto per prima, rischiando anche di rimetterci le penne, con l'acquisizione di ATI...
poi ti rendi conto che stai confrontando 14nm finfet di Intel con i 28nm planari?
Ma ti suggerisco invece dei confronti suggestivi, per cì dire:
Carrizo vs Sandybridge
Carrizo vs Haswell
i prodotti excavator si piazzano nel mezzo..
ps, in questo caso non guardare le prestazioni della GPU, per motivi a noi sconosciuti i produttori hanno deciso di utilizzare la piattaforma di Kabini, e quindi la gpu è costretta a lavorare in single channel...:rolleyes:
Anzi per certi versi sono pure eccezionali, se consideriamo le condizioni operative: 64 bit a 1600MHz, per una bandwidth di appena 10GB/s
ho visto operare APU in 17" con ram DDR1600 settate a 1333....
stupefacente. (nel senso che chi li integra si fa' di brutto).
cdimauro
10-04-2016, 06:45
in quale universo parallelo succede questo?
Iris pro 580 e' l'unica cosa decente d'intel, capace di superare le APU di AMD, ma per come se la fa' pagare... gia' oggi al prezzo di un processore che ha Iris Pro, il piu' economico i5-5675C a 270 euro, puoi permetterti di acqistare un insulso AMD Athlon X4 860K a 70 euro, ed una R9 380, che a conti fatti andra' il doppio e senza i problemi dei driver intel....
per i mobile, con il 6200... un portatile da minimo 1200 euro, contro uno con carrizo+scheda dedicata a 600-700 euro.
quando, e se, intel decidera' di fare buone APU, magari potra' uscire qualcosa di decente, ma non certo di conveniente.
Le ultime GPU integrate nelle CPU Intel che non fanno uso di eDRAM sono abbastanza competitive. Inferiori, ma non di molto (10-15%, se non ricordo male. Qualche tempo fa un utente aveva riportato dei grafici).
Quelle con l'eDRAM sono superiori, ma c'è da dire che questa memoria integrata può essere usata trasparentemente anche dalla CPU, in quanto funge da cache L4. Quindi ha un suo perché, sebbene non ci si possa aspettare miracoli.
Per il resto faccio notare che l'utente in questione:
- non ha parlato di costi;
- ha soltanto parlato di "performance/watt eccellenti".
In quest'ultimo caso mi pare che l'affermazione rimanga corretta.
l'utilizzo della edram, ha costi irrisori per Intel, rispetto a qualsiasi altro competitor fabless.
Solo se l'eDRAM se la produce interamente in casa, e non siamo sicuri che questo avvenga con le Iris in questione.
ps, in questo caso non guardare le prestazioni della GPU, per motivi a noi sconosciuti i produttori hanno deciso di utilizzare la piattaforma di Kabini, e quindi la gpu è costretta a lavorare in single channel...:rolleyes:
C'è un produttore (Lenovo? Non ricordo adesso) che ha rilasciato soltanto il prototipo in single-channel, ma nella versione finale/commercializzata Kabini lavora in dual channel.
Per il resto faccio notare che l'utente in questione:
- non ha parlato di costi;
- ha soltanto parlato di "performance/watt eccellenti".
In quest'ultimo caso mi pare che l'affermazione rimanga corretta.
nessuno nega che le prestazioni delle ultime integrate Intel non siano accettabili e che le loro performance/W siano piu' che buone, d'altronde stiamo parlando di un PP che e' la meta' in una dimensione, ed 1/4 nelle due dimensioni.. ci mancherebbe anche che non lo siano!;
e' evidente pero' che Intel non ha intenzione assolutamente, per ora, di proporre una ottimale politica dei prezzi.
sia chiaro, non dico che il costo di un i5 desktop che integra iris pro sia eccezionalmente alto, ma che sia eccezionalmente inutile si.
il mercato delle APU si gioca sui processori mainstream, da pentium a i3, e ad oggi Intel non ha nessuna intenzione di produrre HW che riesca a soddistare "semplicemente" queste esigenze.
Ti ricordo che la maggior parte dell'uso che si opera con questo tipo di CPU non richiede prestazioni elevatissime, e che la maggior parte delle funzioni richieste, come ad esempio puo' essere la decodifica video, viene effettuata dalla metrica fissa del processore, che ci sarebbe anche senza GPU.
quindi, nella pratica, queste GPU sono prettamente riservate ai casual gamer, ma soffrono pesantemente dello squilibrio CPU/GPU, ossia di una potenza elaborativa sulla CPU nettamente piu' performante di quello che puo' offrire la GPU e, se vuoi avere un "semplice" PC con APU intel, non puoi fare a meno di dover pagare potenza inutile.
i 65W si devono solamente a questo.
quando viene richiesta piena potenza alla GPU (ed e' alquanto facile considerando le potenzialita' dell'HW), le richieste per la CPU sono estremamente basse.
ho un A10-7870K, la cui GPU e' piu' performante di una Iris Pro anche solo considerando le frequenze di default (866mhz, ma si puo' spingere a 1150mhz); anche in overclock GPU le richieste ai core della CPU sono cosi' esigue che a 3ghz il computo e' inferiore al 60%, ossia meno della meta' ....
prove pratiche mi hanno dimostrato che basterebbe un settaggio a 1.8ghz (neanche a 2.4ghz si rilevano picchi tali da inficiarne le prestazioni medie).
a questo punto una Iris Pro quanto credi possa intaccare sulla potenza di un i5 a 3 e passa ghz?
Il lavoro prodotto da una Iris Pro non saturerebbe un buon celeron, figuriamodi un pentium o un i3.
le prestazioni richieste sui core CPU sono cosi' scarse che e' grasso che cola se tutti i core arrivano a consumare 12W sugli oltre 65W richiesti nel gaming per quella APU; Iris Pro assorbe 40W minimo per avere quelle prestazioni, a 14nm.
riporta i consumi a 28nm e scoprirai che quei 40W diventano 160W, per un computo gaming inferiore all'apu che ho e che fa' circa 100W in condizioni gaming, compreso il consumo CPU...
vuoi abbassare le stime ponendo il consumo dei core a 30W?
Iris Pro se ne prende 35, e 35x4 fa' 140W, comunque tanti.
quindi dire che le CPU intel con Iris Pro siano efficienti... ci starei un po' attento...
e poi e' tutto rapportato al costo.
cdimauro
10-04-2016, 11:34
Non ho dati (più o meno) ufficiali su quanto incida la componente GPU sul consumo totale, per cui mi fermo qui.
:cool:
Regna il caos sui nanometri dei prodotti AMD,
come ho gia' segnalato diverse volte.
http://www.extremetech.com/gaming/220603-confirmed-globalfoundries-will-manufacture-amds-mobile-low-power-polaris-gpus
Non ho dati (più o meno) ufficiali su quanto incida la componente GPU sul consumo totale, per cui mi fermo qui.
https://www.youtube.com/watch?v=QyZG9ktwpo4
https://www.youtube.com/watch?v=xSUiYBYEijo
qui puoi vedere l'uso della CPU in un gioco a 720P e 1080P con un 6200;
rari i casi in cui la CPU viene richiesta per oltre il 40% dell'occupazione;
la questione e' che nessuno che fa' questi test e benchmarck si ricorda di guardare a quanto viene configurata la CPU quando interviene la parte grafica.
su AMD setta 3ghz, su un processore del genere, e con quella GPU, difficile che si superi 1.8ghz.
https://www.youtube.com/watch?v=wxpw3dPOxEQ
qui puoi vedere che un 7850K con GPU settata a 1029Mhz occupa la CPU all'80% delle sue possibilita', ma ti ripeto:
la GPU di quel processore e' gia' di per se piu' performante nel settaggio standard, qui c'e' un +20% (rispetto ad un 7870K che ha 866 come frequenza di default);
quella CPU setta 3ghz/1.15V quando lavora con la GPU; e' un settaggio del turbo core... al massimo delle richieste per quelle prestazioni quella CPU consuma 35W; la GPU incomincia a consumare ben oltre i 70W (in default, a 1030 e' probabile che superi gli 85W, con un totale di 120W).
il consumo di quella CPU a 1.8ghz al 40% dell'occupazione dei core (media ponderata), e' stimabile in poco oltre i 10W;
conta che un celeron j1900 quad core 22nm a 2ghz e turbo brust a 2.4ghz consuma 10W, quindi dire che un 14nm quad core va' anche oltre con una richiesta di potenza computazionale di 1/3 e' un'esagerazione.
risulta percio' che se la CPU consuma 62W in gaming (come rilevato da diverse testate), 50W sono solo per la parte grafica.
in torture test la CPU+GPU (sempre per quelle testate), arriva a 75.5W, e se fai 10W/40% ottieni proprio i 25W di differenza, ma a 1.8ghz; questo ti mostra un'altra cosa:
i 95W del 6700K sono raggiunti a 4ghz.
se fosse una dipendenza bilineare tra' frequenza e voltaggio il 6700K dovrebbe consumare al massimo 75W.
cio' significa che a per quelle frequenze (4ghz) intel deve ricorrere ad un aumento consistente di voltaggio, che fa' schizzare il processore a 95W di consumo, oltre 20W di piu'...
Intel perde sensibilmente in efficienza appena si superano i 3ghz sulla CPU (cosa che probabilmente accadra' anche con i 14nm samsung/GF).
quindi aspettiamoci CPU sempre meno clockate e clockabili.
detto in sintesi?
l'efficienza intel e' solo grazie al PP, ma non certo per come vengono prodotte e gestite le prestazioni;
quando anche AMD stara' a 14nm, credo che non ci siano tante storie da fare... AMD e' avvezza a dover rendere efficienti i suoi circuiti per riuscire a star dietro a PP 5 anni piu' avanzati... trasmettere questa pratica ai processi a 14nm significa poter gestire un ottimale bilanciamento tra' consumi e prestazioni; oggi si guardano le prestazizoni, ma a quanto si dice le nuove APU ZEN avranno TDP da 95W, ossia lo stesso di oggi... quindi stessa richiesta di dissipazione, stesso consumo, PP di 1/4, prestazioni con un fattore x4... stesso dicasi sulle APU per mobile.
intel dovra' darsi parecchio da fare, stavolta.
cdimauro
11-04-2016, 06:22
Purtroppo ieri sera ho avuto problemi con l'ADSL, e non ho potuto guardare i video. Oggi ho visto che si tratta per entrambi di test con la IrisPro, che è un'altra classe di GPU (Intel non ha certo tirato fuori queste GPU per competere con le APU di AMD).
Non ho tempo, e devo scappare a lavoro, ma velocemente riporto un paio di punti:
- il consumo non dipende linearmente da frequenza e voltaggio;
- per confrontare i consumi delle CPU (lasciando un attimo da parte la GPU) bisognerebbe prendere core che hanno prestazioni simili, e usando le stesse schede grafiche discrete;
- i 14nm della concorrenza non sono paragonabili a quelli di Intel. Tutt'altro. Ed è uno scenario che si ripeterà coi 10nm;
- Zen arriverà fra un po' di mesi, per cui non mancherà molto per vedere se questi dati sono corretti.
- Zen arriverà fra un po' di mesi, per cui non mancherà molto per vedere se questi dati sono corretti.
per l'appunto, e non di meno Intel e' prossima con Kaby Lake a buttarsi sugli 8 core mainstream, chissa perche'...
per la parte grafica credo che stia facendo la corte ad AMD per il prossimo accordo per le licenze su brevetti, visto che quello con Nvidia sta' scadendo e che (per altre ragioni), gli e' costato un patrimonio (ma sembra che nvidia richieda la stessa cifra un'altra volta, infischiandosene del fatto che la prima volta gli sono stati dati per altre ragioni)...
cdimauro
11-04-2016, 21:08
per l'appunto, e non di meno Intel e' prossima con Kaby Lake a buttarsi sugli 8 core mainstream, chissa perche'...
Sicuro? Perché 8 e 10 core in ambito enthusiast ci sono già, ma mainstream per me significa roba come gli i5 (gli i7 sono più costosi, e sono già per utenti più avanzati. Meno mainstream quindi).
per la parte grafica credo che stia facendo la corte ad AMD per il prossimo accordo per le licenze su brevetti, visto che quello con Nvidia sta' scadendo e che (per altre ragioni), gli e' costato un patrimonio (ma sembra che nvidia richieda la stessa cifra un'altra volta, infischiandosene del fatto che la prima volta gli sono stati dati per altre ragioni)...
Appunto: è "soltanto" un problema di brevetti. Che sia AMD o nVidia a fornirglieli è praticamente indifferente: a Intel interessa spendere di meno.
ROBHANAMICI
12-04-2016, 12:35
infatti sembra strano anche a me che facciano processori a 8 core nel settore mainstream :rolleyes: , poi soprattutto kaby lake (capisco invece se ci fosse qualche novità con cannon lake).
Mi dispiace poi ma debbo spezzare una lancia a favore delle gpu discrete: queste rappresentano un pezzo di storia dell'hardware per computer da ormai 15 anni abbondanti, hanno un loro perché , una loro materialità (ed anche per questo è bello comprarle, averle e montarle sui propri computer, tutto ciò lo indipendentemente dalle prestazioni lato consumi e dai costi, si sa, purtroppo, che è un pezzo in più da comprare e che costa, se vuoi giocare come si deve).
Riguardo all'affermazione dell'utente nella pagina precedente si critica più che altro l'affermazione nella quale dice che le schede video discrete sono attaccate al passato (PCI express, pin di alimentazione), non vedo come possano avere un futuro "cito testuali parole da lui dette". Non si critica certo il fatto dei consumi. Allora dovrebbero togliere anche gli alimentatori da mezzo: non ha molto senso, da questo punto di vista ciò che ha detto.
in realta' non ha tutti i torti...
anni addietro si era pensato di fare delle dual socket, uno per la CPU ed uno per la GPU; ed oggi, con gli interposer su GPU non sarebbe nemmeno strano se succedesse, ma si dovrebbe quantomeno standardizzare lo socket GPU, il che renderebbe il tutto decisamente difficile.
al tempo si parlava di chip memory hub, un controller separato che gestiva la ram sia per il processore e per la GPU (staccato dal classico northbridge) ed anche questo "aggiornabile", capace di minimizzare la RAM video, usata come baffer, e sfruttare la ram di sistema, molto piu' economica e potenzialmente altrettanto veloce utilizzando il multichannel...
erano belle fantasie, inattuabili oggi per molte questioni (l'idea era Rambus, prima che diventasse un patent troll).
per quanto riguarda le CPU, anche se su X99, Broadwell-E sta' scendendo dal piedistallo (d'altronde i V5 erano gia' fuori da tempo ed era anche questo prevedibile), quindi e' presumibile, ma sono speculazioni personali da prendere con lunghe pinze, che kabe-lake presentera' 8 core mainstream su i7 e 6 core su i5...
e' un conto semplice: la piattaforma X99 non puo' stare, per via del costo, nel mercato mainstream, ma skylike, cosi' come' e' gia' tirato per il collo sui 4ghz (perdendo considerevolmente in efficienza) e l'unica cosa per aumentare le prestazioni (e stare vicini a Zen) e' quella di aumentare i core, ma conseguenzialmente di abbassare le frequenze operative (e limitare la parte grafica... lo spazio e' quello e a meno di non dovre cambiare ulteriormente socket, anche l'almentazione).
difficile che vedremmo i7 kabe-like oltre i 3.2-3.3ghz.
Zen, dovrebbe rimanere, se queste ipotesi sono corrette, leggermente sotto a pari frequenza (anche questo difficile che verra' clockato a piu' di 3.4ghz), ma il divario sara' realmente piccolo....
Zen pero' potra' fare meglio sui consumi, richiedendo 75W invece che 95W (sul top), e questo anche in considerazione che l'APU Zen non potra' fare piu' di 95W SDP (in game si tocchera' comunque i 120W).
per polaris 11 invece sembra ci siano 1024 SP a piena pipeline (16 stadi), capace di farla valere come una R9 380 (forse con GDDR5x limitera' i danni del bus a 128bit e si piazzera' nel mezzo tra' 380 e 380x grazie soprattutto ad un consistente aumento della caches dai 768KB a probabilmente 2MB).
l'APU ZEN dovrebbe proporre questa soluzione grafica.
cdimauro
12-04-2016, 19:16
Alcune voci di tempo fa affermavano che Zen dovrebbe avere prestazioni simili a quelle di Haswell. Vedremo, ovviamente, se saranno confermate.
Quanto a Kabylake, sarà il primo esemplare del nuovo "passo" (ottimizzazione) di Intel, che non è più basato sul tick-tock, ma sul "Process-Architecture-Optimization" (http://www.hwupgrade.it/news/cpu/niente-piu-tick-tock-per-intel-e-tempo-di-process-architecture-optimization_61731.html). Dunque aspettarsi consumi e/o prestazioni simili a Skylake non lo credo possibile: ci saranno sicuramente dei miglioramenti.
Né sono circolate voci di possibili adozioni di più di 4 core per soluzioni mainstream basate su questa nuova (micro)architettura, per cui è plausibile che le configurazioni che arriveranno ai consumatori saranno come quelle attuali.
P.S. Il processo a 22nm di Intel era paragonabile a quello a 28/26nm della concorrenza, in quanto l'azienda, all'epoca ha sempre privilegiato le prestazioni alla densità (e consumi).
Viceversa, i 14/16nm della concorrenza non sono certo paragonabili ai 14nm di Intel, come già detto.
Per cui l'impatto del nuovo processo produttivo che sarà adottato da AMD non sarà dell'ordine di grandezza che avevi espresso prima.
Anche qui... vedremo.
non puoi fare confronti tra' i 14 d'Intel e i 14 usati "dagli altri".
gli altri sono ARM e sono anche pochi, in cui viene previleggiata nettamente la strada della massima densita' di transistor a discapito delle pure prestazioni, anche perche' di clock non possono certo aumentare piu' del dovuto, essendo chip appunto per sistemi mobili.
Quindi anche su questo, mi spiace, ma non posso concordare.
Se devi fare confronti li dovresti fare per il comparto di appartenenza e per la tecnologia richiesta e per ora, oltre Intel, nessuno fa' processori ad elevate prestazioni (X86, tra' l'altro); quindi cadono tutte le possibilita' di effettuare un confronto almeno fino a quando non esce Zen.
Come ho gia' scritto AMD e' ben piu' avvezza a gestire prestazioni e consumo sui suoi chip, siano essi CPU o GPU, e trasferire le sue tecnologie, con le dovute riparametrizzazioni ed adeguamenti; rimane comunque la questione che la gestione del consumo di Carrizo e di Kabini non sono certo da confrontare con lo speed step d'intel, di per se decisamente piu' grezzo per quantita' di stadi e per pattern prestabiliti... prendi ad esempio il target power delle schede grafiche. che considerano anche il noise acustico...
comunque si, Zen sara' comparabile con le prestazioni di haswell, il che non e' male, considerando che questo ha un IPC superiore a skylike del 5-7% a parita' di clock: Haswell e' un processore con 14 stadi di pipeline, skylike ne ha 16, c'e' un considerevole aumento di latenza; di suo, con 16 stadi, Skylike puo' ambire a clock superiori, ma clock superiori portano con se, a pari PP e pari densita' di transistor, anche maggior consumo, o meglio calore... perche' hanno fatto questo, ad Intel? brasatura contro normale colla; un risparmio non da poco (che ha portato pero' a buoni 7-8W in piu' da dover dissipare in maniera meno efficiente di prima).
cdimauro
12-04-2016, 21:55
E' l'esatto contrario: Skylake è dotato di clock inferiore ad Haswell, e ha prestazioni mediamente superiori. Ci sono diversi benchmark che puoi controllare tu stesso, anche qui nella recensione che fece Hwupgrade. Anche se ha una pipeline più lunga, questa nuova micro-architettura è più efficiente.
Quanto ai 14nm di Intel, ho già detto che con questi Intel ha privilegiato proprio la densità (e i consumi), mentre tutti i precedenti processi produttivi erano orientati alle prestazioni (ed erano meno densi, oltre a consumare di più).
Puoi chiedere a tuttodigitale informazioni, ed eventuali grafici, in merito. ;)
EDIT. Ecco qui i benchmark di Skylake:
http://www.hwupgrade.it/articoli/cpu/4428/intel-skylake-core-i7-6700k-e-core-i5-6600k-in-prova_3.html
http://www.hwupgrade.it/articoli/cpu/4428/intel-skylake-core-i7-6700k-e-core-i5-6600k-in-prova_4.html
http://www.hwupgrade.it/articoli/cpu/4428/intel-skylake-core-i7-6700k-e-core-i5-6600k-in-prova_5.html
Non c'è un solo test in cui Haswell sia superiore, o al limite uguale, a Skylake. Anzi, a volte i distacchi che gli lascia quest'ultimo sono notevoli. E considera che in Turbo Boost Haswell arriva a 200Mhz in più.
Leggendo con attenzione l'articolo potevi vedere che la redazione ne ha giustamente descritto il perché di questo progresso: DDR3 VS DDR4.
Sky vince su Has nei test in cui viene sfruttato l'intero processore, non in uso solo di ALU o FTP.
Quando la banda della RAM e la caches passano in secondo piano Sky deve usare frequenze maggiori;
lo speed bost é diverso proprio per questo su Sky, in quanto ha sia frequenze base maggiori che uso di singolo core più a clock più elevato;
Mentre Has, quando tutti e 4 i core sono occupati, cala immediatamente a frequenza bassa su tutti i core, Sky, per stargli dietro con un IPC inferiore, scala 2 core a frequenza base, uno ad intermedia ed uno ancora più alto.
Solo se l'uso rimane permanente per un certo lasso di tempo, correlato anche al calore prodotto, porta i tutti i core alla frequenza base... Insomma, a "freddo" rende di più per compensare il 10% in meno a pari clock, riuscendo a recuperare, per un po' di tempo, un 5-7% grazie alla maggior frequenza.
Usi una serie di tourture test sequenziali con prime e vedrai calare le prestazioni di sky di un 10% rispetto ad has, a pari clock.
Essendo processori mainstream non é neanche sbagliato fare questi giochetti.
tuttodigitale
13-04-2016, 12:00
Per il resto faccio notare che l'utente in questione:
- non ha parlato di costi;
- ha soltanto parlato di "performance/watt eccellenti".
ha intenso una mancanza cura di AMD verso i prodotti orientati all'efficienza:
1) l'utilizzo delle edram non è neppure immaginabile per AMD: Carrizo viene prezzato, a circa 80 dollari per lotti di 1000, contro i 400 delle soluzioni iris pro.
quel +10-15% che citi, è la differenza di prestazioni che c'è tra una soluzione 384sp ed una ad 512sp...
2) le prestazioni/watt eccellenti sono figlie del processo produttivo evoluto (carrizo è eccellentissimo se consideriamo che è su un processo planare). Va dato merito ad Intel di essere arrivata ai finfet, 4 anni prima di tutti gli altri...
posto l'intervento di grillo-parlante
Queste schede video sono attaccate al passato (PC express, pin di alimentazione) non vedo come possano avere un futuro. Dovrebbero invece prendere esempio da Intel, che fa CPU&GPU tutto in uno e con performance/watt eccellenti.
cdimauro
13-04-2016, 21:10
Leggendo con attenzione l'articolo potevi vedere che la redazione ne ha giustamente descritto il perché di questo progresso: DDR3 VS DDR4.
Ecco qui quanto incide la banda su Skylake:
http://www.hwupgrade.it/articoli/memorie/4431/memorie-ddr4-e-cpu-intel-skylake-fino-a-3600-mhz_2.html
Come vedi in tanti casi non incide affatto, o in maniera del tutto trascurabile.
In alcuni ambiti incide, ovviamente. Ma NON è un discorso generale. Tutt'altro.
Anche per le DDR3 vale lo stesso:
http://www.anandtech.com/show/6372/memory-performance-16gb-ddr31333-to-ddr32400-on-ivy-bridge-igp-with-gskill/11
Mentre qui c'è un testo ancora più preciso su DDR3 vs DDR4:
http://www.anandtech.com/show/8959/ddr4-haswell-e-scaling-review-2133-to-3200-with-gskill-corsair-adata-and-crucial/8
Sky vince su Has nei test in cui viene sfruttato l'intero processore, non in uso solo di ALU o FTP.
Quando la banda della RAM e la caches passano in secondo piano Sky deve usare frequenze maggiori;
Scusami, ma come fa a sapere che RAM e cache non sono utili, e che deve passare a frequenze superiori? Peraltro la frequenza l'aumenta in base al carico.
lo speed bost é diverso proprio per questo su Sky, in quanto ha sia frequenze base maggiori che uso di singolo core più a clock più elevato;
Intanto Skylake e Haswell partono dalla stessa frequenza base: 4GHz.
Poi nel caso di utilizzo di un solo core Skylake arriva a 4,2Ghz, mentre Haswell a 4,4GHz.
Dunque è l'opposto di quel che sostieni.
Mentre Has, quando tutti e 4 i core sono occupati, cala immediatamente a frequenza bassa su tutti i core, Sky, per stargli dietro con un IPC inferiore, scala 2 core a frequenza base, uno ad intermedia ed uno ancora più alto.
Non conosco questi dati sull'andamento usando più core, ma tutte le recensioni hanno unanimemente affermato che Skylake ha, invece, un IPC superiore rispetto ai predecessori. Haswell incluso.
Solo se l'uso rimane permanente per un certo lasso di tempo, correlato anche al calore prodotto, porta i tutti i core alla frequenza base... Insomma, a "freddo" rende di più per compensare il 10% in meno a pari clock, riuscendo a recuperare, per un po' di tempo, un 5-7% grazie alla maggior frequenza.
Usi una serie di tourture test sequenziali con prime e vedrai calare le prestazioni di sky di un 10% rispetto ad has, a pari clock.
Essendo processori mainstream non é neanche sbagliato fare questi giochetti.
Non ho visto test di questo tipo, per cui mi fermo qui.
ha intenso una mancanza cura di AMD verso i prodotti orientati all'efficienza:
1) l'utilizzo delle edram non è neppure immaginabile per AMD: Carrizo viene prezzato, a circa 80 dollari per lotti di 1000, contro i 400 delle soluzioni iris pro.
quel +10-15% che citi, è la differenza di prestazioni che c'è tra una soluzione 384sp ed una ad 512sp...
Infatti. Avevo già detto che le soluzioni con eDRAM non vanno certo a competere con le APU di AMD.
2) le prestazioni/watt eccellenti sono figlie del processo produttivo evoluto (carrizo è eccellentissimo se consideriamo che è su un processo planare). Va dato merito ad Intel di essere arrivata ai finfet, 4 anni prima di tutti gli altri...
Ma ha cambiato pure politica: adesso la densità e i consumi sono più importanti, mentre in passo i processi produttivi erano soltanto high-power.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.