View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
In arrivo
Freesync su hdmi
Supporto hdr in game dalle 3xx in su
Buondì ragazzi, mi sto documentando piu' approfonditamente sulle GPU AMD entry level, visto che ho appena "resuscitato" un sistema Core 2 Duo e overcloccato a bestia, volevo affiancargli una GPU moderna AMD che consumi pochissimo ma che non sia proprio inchiodata. Ed allora mi documentavo sulle GPU Oland, Oland PRO, Turks e Redwood, osservandone bene i consumi in base a quello che offrivano in termini di potenza, ossia di stream processors, TMUs e ROPs.
Leggendo bene bene posso dire di aver capito che dalla serie 6xxx non si sono fatti passi avanti in termini di efficenza e consumo, che una HD5570 praticamente va come una R7 240, che è di quattro generazioni avanti, e che insomma AMD sta facendo piu' rebrand e piccolissime modifiche architetturali che altro. Quindi per trovare una GPU che consumi poco e vada bene, potrei buttarmi tranquillamente su una 5570 (che poi ho visto ha un TDP di soli 39W contro i 60W ingiustificati a mio avviso di una R7 240, come mai?) senza vedere altro, o sbaglio?
Perchè AMD non ha interesse a creare una vera NUOVA GPU di basso livello, e farla a misura per magari integrare il doppio degli stream processors del Caicos per esempio (160sp) e farla consumare come appunto il Caicos o poco piu')? Dico questo perchè ricordo che i passaggi dalla HD3470 (40sp) alla HD4350 (80sp), alla HD6450 (160sp), erano sempre accolti piacevolmente da chi seguiva le card entry level a bassissimo consumo, mi chiedo come mai AMD non abbia seguito l'andamento, raddoppiando gli stream processors senza intaccare sui consumi, insomma dov'è un'ipotetica entry level a 320sp, 8TMUs,4ROPs,2CU a 20w di TDP? Sono rimasto molto sorpreso a vedere che la GPU Oland, costruita a 28nm, e non a 40nm, consumi dai 30W della r7 240 ai 65W della r7 250. Invece di consumare meno della Caicos a 40nm, dov'è il salto generazionale? Dov'è il raddoppio degli stream processors a pari consumo?
Leggendo bene avanti mi sono accordo che le serie 77xx e oltre, sono basate su architettura GCN (1.0-1.1-1.2) a differenza delle 6xxx e precedenti. A quanto pare questa architettura è sì piu' complessa e veloce, ma non è neanche lontanamente efficente rispetto all'architettura precedente, giusto? Se così sarebbe stato AMD avrebbe fatto uscire un processore grafico ad HOC per la serie entry-level, successore del Caicos, a 320sp, 8TMUs, 4ROPs, 2CU, che consumi 19-20W giusto?
Può essere che tutto questo disinteresse nella fascia entry-level sia dovuta al fatto che ormai i processori AMD abbiano la entry-level al suo interno??? (Trinity-Richland-Kaveri).
Non ha piu' senso per AMD creare piccole schede video entry-level da affiancare a sistemi che hanno magari processori Intel?
Scusate questo mio lunghissimo ragionamento, ma volevo capirne meglio, e sapere cosa ne pensate, e cosa pensate succeda in futuro con la nuova tecnologia produttiva a 16/14nm.
Sono giorni che mi sto documentando e sto facendo confronti, sono un grande appassionato di schede video, e vorrei trovare documenti ufficiali anche su le varie differenti GPU, tipo datasheet, sapete se c'è qualche sito che le fornisca?
Grazie a tutti, e grazie a chi ha letto e capito tutto ;)
Può essere che tutto questo disinteresse nella fascia entry-level sia dovuta al fatto che ormai i processori AMD abbiano la entry-level al suo interno??? (Trinity-Richland-Kaveri).
direi che ti sei risposto da solo, stesso discorso per le cpu intel e le hd4600.
direi che ti sei risposto da solo, stesso discorso per le cpu intel e le hd4600.
Immaginavo, sinceramente mi dispiace un bel pò non aver visto un'evoluzione di Caicos vera e propria, dai 40nm ai 28nm con 320sp invece che i 160sp. Vero è che già Caicos coi suoi 160 stream processors è già sufficentemente potente a gestire un HTPC, qualche grafica in 3D, e un intero sistema per quanto riguarda la produttività personale, non serve oltre. Però sarebbe stato bello vedere un'evoluzione seria, un 28nm con 320sp che consumi 20W...non so se mi capite.
Quindi immagino verrà ampliata ed evoluta solo ed esclusivamente la fascia mid range, mainstream appunto, mid-high e high level, oltre che l'inutile a mio avviso, enthusiast. Vedremo quindi solo nuovi processori di queste fascie a 14-16nm giusto? E forse forse neanche per la fascia mid range ho paura...temo i rebrand, e non mi piacciono per niente. Così l'evoluzione va a farsi friggere.
Bei tempi quando AMD o NVIDIA creava un'intera famiglia tutta nuova di processori per ogni fascia di mercato. Bei tempi si.
Comunque un'ultima domanda, a cui ci terrei qualche esperto serio mi sapesse rispondere: come mai una GPU Redwood PRO a 40nm con 400sp, 20TMUs, 8ROPs, che equipaggia la HD5570 consuma 39W, mentre una piò nuova Oland XT con 384sp, 24TMUs, 8ROPs, che equipaggia la R7 250 consuma ben 65W??? Qua non mi so proprio spiegare la cosa, o i TDP dichiarati sono sbagliati, o c'è qualcosa che non va nell'efficenza delle nuove GPU a GCN...
OEidolon
14-12-2015, 19:13
Comunque un'ultima domanda, a cui ci terrei qualche esperto serio mi sapesse rispondere: come mai una GPU Redwood PRO a 40nm con 400sp, 20TMUs, 8ROPs, che equipaggia la HD5570 consuma 39W, mentre una piò nuova Oland XT con 384sp, 24TMUs, 8ROPs, che equipaggia la R7 250 consuma ben 65W??? Qua non mi so proprio spiegare la cosa, o i TDP dichiarati sono sbagliati, o c'è qualcosa che non va nell'efficenza delle nuove GPU a GCN...
lungi dall'essere un esperto, ma guardando le specifiche forse dipende dai 1040 milioni di transistors della 250 contro i 627 della 5570; a questo aggiungi che la frequenza del core della 250 è 1000MHz contro i 650 dell'altra :fagiano:
Da 40nm a 28 ci sta il quasi raddoppio dei transistor a parita di tdp, la frequenza può essere.....
Cmq amd punta alle apu in quel segmento, tutto qua
lungi dall'essere un esperto, ma guardando le specifiche forse dipende dai 1040 milioni di transistors della 250 contro i 627 della 5570; a questo aggiungi che la frequenza del core della 250 è 1000MHz contro i 650 dell'altra :fagiano:
Son daccordo, ragionevole sicuramente. Ma a parità di segmento, che sia più potente di quattro generazioni fa ci sta, e non lo è nemmeno in maniera così evidente...ma che mi consumi così tanto di più...mi fa quasi pensare che era più efficente la vecchia architettura VLIW5...o VLIW4 che era...
non confondere tdp con consumo medio, a parte ste pippe comunque si, la cosa in quel caso l'è evidente....
sgrinfia
14-12-2015, 22:29
Non su tutta la linea a peggiorato ,per esempio la mia attuale hd7950 a lo stesso tpd della mia amata e oramai defunta hd6950 ,che era meno potente.;) quindi penso che come consumo stiamo lì.
non confondere tdp con consumo medio, a parte ste pippe comunque si, la cosa in quel caso l'è evidente....
Non ho capito che intendi....evidente cosa? Quali pippe cscusa, i miei erano ragionamenti da appassionato che segue l'evoluzione di questo bellissimo mondo...
Non ho capito che intendi....evidente cosa? Quali pippe cscusa, i miei erano ragionamenti da appassionato che segue l'evoluzione di questo bellissimo mondo...
Le MIE pippe intendevo...ovvero che ti facevo notare che tdp e consumi non sono la stessa cosa...tutto qua...
Non su tutta la linea a peggiorato ,per esempio la mia attuale hd7950 a lo stesso tpd della mia amata e oramai defunta hd6950 ,che era meno potente.;) quindi penso che come consumo stiamo lì.
Ma infatti parlavo solo ed esclusivamente sulla fascia entry-level / midrange...se leggi il mio primo post mi sto ultimamente focalizzando molto su quella fascia e sto cercando di capire più a fondo come mai certe cose...consumi più elevati, nessun step evolutivo a livello di GPU ormai, mi manca l'evoluzione che AMD faceva ad ogni nuova famiglia di entry-level...40 stream processors della 3470, 20W TDP...80 stream processors della 4350 25W...5450 stessi stream processors ma meno watts (20W)...6450 160 stream processors 18W...da li l'evoluzione del raddoppiare gli stream processors e mantenere il consumo praticamente uguale è saltata...ovviamente ad AMD non interessa più quella fascia bassa,avendo i processori con grafica integrata più potente di una Hd6450...
si VLIW era di poco più efficiente di GCN in ambito GAMING, ma con GCN AMD ha puntato anche al settore ENTERPRISE dove VLIW aveva evidenti limiti.
Insomma due piccioni con una fava, anche se il mercato sembra non averle dato ragione
ma vediamo, con GCN 2.0 AMD dovrebbe strizzare più l'occhio all'efficienza, certo anche grazie al processo FF così come nVidia, ma proprio a livello di Architettura dice di raddoppiare l'efficienza di Fiji, per cui: o stesse prestazioni e consumi dimezzati in alcune fasce o doppie prestazioni e consumi invariati in altre.
dipende che ambito enterprise, il vliw5 in ambito gpgpu se programmata bene macinava come un treno. nella vliw4 era già una via di mezzo ottimizzata per il gaming.
Credo che con gnc AMD sia partita con l'idea di modularità, un pò come per le vliw5.
L'esperienza di vliw4 è troppo "di passaggio" visto che l'abbiamo vista solo su due vga e cmq due signore vga.
Free Gordon
16-12-2015, 12:56
Vliw4 lato gaming (con il compiler a pieno regime ;) ), è decisamente più performante/efficiente di GCN... :-)
GCN è stata scelta, perché si puntava pesantemente sul computing...ma in AMD si sono dimenticati di creargli attorno un ecosistema software adatto purtroppo.. :( (quello che è CUDA per esempio)
GCN sarà sempre più dispendiosa in Watt e spazio die.. di Vliw4 per fare texturing/rendering e calcolo shader dell'era dx9, 10 ma in gran parte anche 11 mi sa..
Vliw4 lato gaming (con il compiler a pieno regime ;) ), è decisamente più performante/efficiente di GCN... :-)
GCN è stata scelta, perché si puntava pesantemente sul computing...ma in AMD si sono dimenticati di creargli attorno un ecosistema software adatto purtroppo.. :( (quello che è CUDA per esempio)
GCN sarà sempre più dispendiosa in Watt e spazio die.. di Vliw4 per fare texturing/rendering e calcolo shader dell'era dx9, 10 ma in gran parte anche 11 mi sa..
Benissimo, ulteriori tesi a mio favore...ed è un gran peccato allora si sia andati verso questi GCN, quando VLIW4 andava benissimo ed era efficentissima...non ci potrà mai essere un passo indietro vero? O forse GCN 2.0 sarà più efficente e più sfruttata di GCN 1.1?
mircocatta
16-12-2015, 14:08
unvero peccato che vliw4 sia stato sfruttato su un paio di generazioni soltanto, tral'altro su stesso PP (40nm giusto?) 5xxx-6xxx erano delle bombe in termini di efficenza
c'è anche da dire che compilare driver su di esso se non ricordo male era decisamente più complicato che su GCN
Manutenere i driver era troppo dispendioso
secondo me dovevano continuare su vliw4 almeno per la generazione serie7. Forse si sono resi conto che era un'archidettura che non permetteva una integrazione maggiore a livello di sp.
Mettete anche che volevano a tutti i costi fare HSA con le loro APU, è possibile che gnc si presti meglio a questo metodo che non il vliw4 (nonostante cmq le prime apu fossero vliw5 con llano e vliw4 con trinity/richland)
Benissimo, ulteriori tesi a mio favore...ed è un gran peccato allora si sia andati verso questi GCN, quando VLIW4 andava benissimo ed era efficentissima...non ci potrà mai essere un passo indietro vero? O forse GCN 2.0 sarà più efficente e più sfruttata di GCN 1.1?Dipende da come interpreti la parola efficienza. Era efficiente a livello di spazio occupato e consumi, ma molto inefficiente quando prendiamo in esame il numero di Shader Processors.
Un'architettura del genere richiede uno sforzo di compilazione dei drivers molto, troppo dispendioso.
Va tutto contestualizzato..... Per esempio non si faceva un confronto fra architetture di altri vendor.... In certi carichi maxwell in efficienza è imbattibile in altri gcn macina come un ultrà atalantino al bar della festa della dea....
sgrinfia
16-12-2015, 22:24
No ragazzi ,tra GCN e Vliw4 in confronto ha Vliw5 è il cambio radicale nell'0rganizzazione dei core.
Fino alle radeon HD6800, la medesima era dettata da un architettura che AMD definiva VLIW5, che prevedeva l'accorpamento di cinque stream processing unit ( di fatto l'unità di elaborazione più semplice prevista nella GPU) in ciascun core , dove quattro SPU si occupavano esclusivamente di funzioni semplici mentre la quinta, detta"T-unit", svolgeva compiti più elaborati come le funzioni trascendenti. A completare il quadro di ciascun core core ci pensavano poi una singola unità di branch e una serie di registri generici.
Bene possiamo quasi dimenticare tutto questo : nelle radeon Hd 6900 -hd 7900 in poi le tream processing unit smettono di essere di due tipi, ma diventano tutte egualmente in grato di risolvere funzioni semplici e trascendenti, possono operare su interi e in virgola mobile, e sono raccolti a gruppi di quattro , con la solita branch unit e i registri al seguito .
Questo ha permesso ad AMD di semplificare un po' le cose e di risparmiare spazio, ottenendo prestazioni simili al passato in uno spazio inferiore del 10-20% rispetto alle vecchie soluzioni.
E in un mondo gpu dove ogni millimetro quadrato può fare la differenza, ciò ragazzi lo sapete meglio di me ......è estremamente importante.;)
Dipende da come interpreti la parola efficienza. Era efficiente a livello di spazio occupato e consumi, ma molto inefficiente quando prendiamo in esame il numero di Shader Processors.
Un'architettura del genere richiede uno sforzo di compilazione dei drivers molto, troppo dispendioso.
Beh ma scusa, HD6570 con VLIW5 ha 480 stream processors in 118mm2 e con 60W di TDP.
E' un alto livello per un processore di medio/basso livello come Turks (erede di Redwood). Mentre prendiamo lo stesso medio livello di oggi, con il processore grafico Oland, segna 384 stream processors in 90mm2, sempre con 24TMUs, 8ROPs, 6 CU, con 66W di TDP.
Non mi sembra quindi che VLIW fosse inefficente a livello di numero di shaders.
No ragazzi ,tra GCN e Vliw4 in confronto ha Vliw5 è il cambio radicale nell'0rganizzazione dei core.
Fino alle radeon HD6800, la medesima era dettata da un architettura che AMD definiva VLIW5, che prevedeva l'accorpamento di cinque stream processing unit ( di fatto l'unità di elaborazione più semplice prevista nella GPU) in ciascun core , dove quattro SPU si occupavano esclusivamente di funzioni semplici mentre la quinta, detta"T-unit", svolgeva compiti più elaborati come le funzioni trascendenti. A completare il quadro di ciascun core core ci pensavano poi una singola unità di branch e una serie di registri generici.
Bene possiamo quasi dimenticare tutto questo : nelle radeon Hd 6900 -hd 7900 in poi le tream processing unit smettono di essere di due tipi, ma diventano tutte egualmente in grato di risolvere funzioni semplici e trascendenti, possono operare su interi e in virgola mobile, e sono raccolti a gruppi di quattro , con la solita branch unit e i registri al seguito .
Questo ha permesso ad AMD di semplificare un po' le cose e di risparmiare spazio, ottenendo prestazioni simili al passato in uno spazio inferiore del 10-20% rispetto alle vecchie soluzioni.
E in un mondo gpu dove ogni millimetro quadrato può fare la differenza, ciò ragazzi lo sapete meglio di me ......è estremamente importante.;)
Grazie per il "remind" mi ero dimenticato dove e quando intervenisse VLIW4 in sostituzione a VLIW5, secondo me due architetture abbandonate troppo presto :(
Free Gordon
17-12-2015, 09:50
O forse GCN 2.0 sarà più efficente e più sfruttata di GCN 1.1?
Mah...boh, speriamo.. :D
Credo che in ATI ci siano sempre stati degli ingegneri geniali, chi lo sa se sono ancora lì o se sono andati via.. :p
Il prossimo giugno/luglio vedremo...
Free Gordon
17-12-2015, 09:52
secondo me dovevano continuare su vliw4 almeno per la generazione serie7. Forse si sono resi conto che era un'archidettura che non permetteva una integrazione maggiore a livello di sp.
Mettete anche che volevano a tutti i costi fare HSA con le loro APU, è possibile che gnc si presti meglio a questo metodo che non il vliw4 (nonostante cmq le prime apu fossero vliw5 con llano e vliw4 con trinity/richland)
GCN è stata creata ESPRESSAMENTE per l'integrazione e per il GPGPU.. anche Yoss lo disse.
Lato gaming GPU discrete, avrebbero potuto continuare per anni con Vliw4 ed evoluzioni... :(
Sui 28nm avremmo avuto GPU potentissime e che consumavano nulla.
Free Gordon
17-12-2015, 09:55
io sta storia che GCN non sia efficiente non la capisco.
tra una 290x ed una gtx 970 passano, tester alla mano, 70w più o meno con prestazioni analoghe o lievemente migliori su amd.
la 290x è evoluzione di architettura GCN che ha debuttato nel 2012.
la gtx 970 ha Maxwell, architettura del 2014.
ora se una scheda la cui architettura di base è di almeno 2 anni indietro va uguale ad una nuova ad un costo di 70w di differenza e questa risulta inefficiente, boh.
Fai anche 80-90...100W :D
C'è anche da considerare che GCN ha il grosso gap rispetto a Maxwell del memory controller gigante...e quindi parte del consumo in più va lì..
Cmq anche rispetto a Kepler era un pò più esoso in termini di consumi.
Free Gordon
17-12-2015, 09:58
comunque la serie 6000 vliw4 è stato un tampone causato dal ritardo dei 28nm di TSMC, è stata di passaggio per quello, una transizione forzata per adattare la serie 5000 vliw5 al vecchio processo a 40nm ed infatti gcn 1.0 serie 7000 riprendeva alcun caratteristiche della serie 6000
ad esempio il rapporto tra SP e TMU è lo stesso 16:1 aumentandole del 33% con però le stesse ROP, vedi 7970 vs 6970
La 6970 era stata progettata per i 32 originariamente. Poi tagliati da TSMC. AMD è rimasta fregata da quel lato, la 6970 doveva avere più SP di quelli che poi ha avuto.
sgrinfia
17-12-2015, 10:35
comunque la serie 6000 vliw4 è stato un tampone causato dal ritardo dei 28nm di TSMC, è stata di passaggio per quello, una transizione forzata per adattare la serie 5000 vliw5 al vecchio processo a 40nm ed infatti gcn 1.0 serie 7000 riprendeva alcun caratteristiche della serie 6000
ad esempio il rapporto tra SP e TMU è lo stesso 16:1 aumentandole del 33% con però le stesse ROP, vedi 7970 vs 6970
Si ricordo bene il ritardo dei 28nm, poi c'era anche l'obbiettivo GPGPU dove prima le Invidia aveva prestazioni e mercato già avviato .
Già dalle hd 6900 ,Amd dimostro delle potenzialità che con le hd6800 non aveva.
mircocatta
17-12-2015, 11:23
io sta storia che GCN non sia efficiente non la capisco.
tra una 290x ed una gtx 970 passano, tester alla mano, 70w più o meno con prestazioni analoghe o lievemente migliori su amd.
la 290x è evoluzione di architettura GCN che ha debuttato nel 2012.
la gtx 970 ha Maxwell, architettura del 2014.
ora se una scheda la cui architettura di base è di almeno 2 anni indietro va uguale ad una nuova ad un costo di 70w di differenza e questa risulta inefficiente, boh.
beh su medesimo PP se permetti è molto, si parla di quasi un 40-50% di consumi in più della gtx970
saranno due anni "temporali" di differenza ma sulla carta è una sola generazione in più
non mi sembra una eresia dire che lato gaming le nvidia hanno una architettura più efficente, lo scotto da pagare con gcn è stato questo
sul basso si, sul alto no.... Fury e 980ti si riavvicinano come efficienza segno che maxwell scala meglio verso il basso...la 970 è ben bilanciata infatti, la 980 un po' meno, la 980ti nulla di eclatante....
Cambiare architettura ogni due anni ha questo vantaggio, ma ha svantaggi su altro (soprattutto per l'utente finale)...amd tiene le sue architetture per il doppio del tempo....
a 980 è più efficiente come performance/watt della 970, almeno nei videogiochi. E' la 980Ti che perde di nuovo. Le schede di nvidia più efficienti sono la 750, 750ti e la 980, le altre evidentemente sono state versioni un po' sbilanciate come clock e rapporto efficienza/watt per coprire altre fasce di mercato. Del resto è vero che AMD è indietro purtroppo come efficienza, ma è vero anche che ultimamente ha recuperato in parte, in parte perché le Fury sono più efficienti nei videogiochi rispetto a tahiti (anche se hanno perso nella doppia precisione, cosa sulla quale comunque nvidia è sempre stata un po' indietro rispetto ad AMD, ma che nella maggior parte dei calcoli odierni e specie nei giochi viene usata sempre meno), in parte appunto perché nvidia con schede come la 980ti e la 950 anziché guadagnare più efficienza in termini di performance/watt l'ha ridotta.. poi c'è il fattore crimson che qualcosa ha aggiunto (sarebbe bello vedere qualche recensione approfondita non solo sul guadagno in termini di performances con varie schede, ma anche in termini di miglioramento dei consumi ed appunto guadagno di performance/watt). Insomma le fury per il mercato non sono messe male, se non che hanno dei prezzi che si collocano in una fascia di mercato dove non ci sono grossissime vendite. Il problema delle fury è quello che sta intorno alle performances teoriche.. vedi problemi di kit liquido che fanno rumore (ora dovrebbero aver risolto, ma questi problemi con nvidia non si erano sentiti) oppure la nano che pur essendo forse la scheda più interessante di tutte (a parte il costo spropositato) fa rumori elettrici a volte intollerabili.. senza considerare i bugs della prima serie dei crimson. tolto questo le fury adesso sono ottime schede.
E' nelle fasce più basse che AMD ha problemi in termini di performance/watt e lì al momento può giocarsela solo proponendo maggiori prestazioni a prezzi minori.. anche se ho letto da qualche parte che le 380 e 380x sarebbero rebranding dela 280x, questo non è del tutto vero perché la 380x ha un rapporto performance/watt migliore della 280x in modo considerevole, pur essendo dietro a nvidia in queste fasce (ma bisognerebbe comunque rivedere in base ai crimson cosa cambia e magari prossimamente -anche se questo è prematuro- con le dx 12, cosa che potrebbe cambiare le carte in tavola). Parlando di 390 per esempio è già peggio, è una delle prime volte o forse la prima che si vede lo stesso TDP per la fascia medio alta e quella alta della stessa azienda (vedi 390x e fury x), ma del resto AMD fa anche bene a concentrare gli investimenti solo sulle nuove architetture ed a "riciclare" laddove riciclabile vista la situazione non rosea
GCN è stata creata ESPRESSAMENTE per l'integrazione e per il GPGPU.. anche Yoss lo disse.
Lato gaming GPU discrete, avrebbero potuto continuare per anni con Vliw4 ed evoluzioni... :(
Sui 28nm avremmo avuto GPU potentissime e che consumavano nulla.
Questo tuo commento infatti mi fa un pò di malinconia sai.
L'avvento del GCN ha corrisposto per quanto mi riguarda a un leggero disinteresse successivo nell'informarmi bene delle schede video, ero molto sul pezzo quando ATi presentava la serie 3xxx, 4xxx e 5xxx, e qualcosa della serie 6xxx, per poi perdere un pochino di interesse. E ora mi rendo conto che ho un leggero "gap" di conoscenza, sì ho sempre seguito il mondo delle schede video, soprattutto ATi/AMD, ma ultimamente leggermente meno e voglio ovviamente recuperare, ecco il motivo che in questi giorni mi sto documentando un bel pò.
Eh si, in effetti, se AMD avesse continuato ad evolvere la struttura VLIW4, avremmo visto sempre più belle GPU e sempre meno consumi, mi dispiace moltissimo abbiano "dovuto" cambiare target.
Io sogno sempre magari un ritorno all'architettura VLIW4, ma mi rendo ben conto, che è un passo che non verrà mai fatti, ora meglio ottimizzare GCN. Staremo a vedere con GCN 2.0, se il nostro interesse si farà nuovamente vivissimo grazie a una sorpresa che forse AMD ci farà. Speriamo e incrociamo le dita. :sperem:
°Phenom°
17-12-2015, 12:35
Sbagliato, la 380 è un rebrand della 285, la 380x è un rebrand della m295x, scheda che era solo sui mac 5k in precedenza. Tutte queste vga hanno un chip "Tonga" (gcn 1.2), evoluzione di "Tahiti" (gcn 1.0), cioè il chip che montavano le 7870XT, 7950, 7970 e i rebrand di queste ultime 2, cioè 280 e 280x.
deadbeef
17-12-2015, 13:27
http://www.green500.org/lists/green201511
sgrinfia
17-12-2015, 13:52
Questo tuo commento infatti mi fa un pò di malinconia sai.
L'avvento del GCN ha corrisposto per quanto mi riguarda a un leggero disinteresse successivo nell'informarmi bene delle schede video, ero molto sul pezzo quando ATi presentava la serie 3xxx, 4xxx e 5xxx, e qualcosa della serie 6xxx, per poi perdere un pochino di interesse. E ora mi rendo conto che ho un leggero "gap" di conoscenza, sì ho sempre seguito il mondo delle schede video, soprattutto ATi/AMD, ma ultimamente leggermente meno e voglio ovviamente recuperare, ecco il motivo che in questi giorni mi sto documentando un bel pò.
Eh si, in effetti, se AMD avesse continuato ad evolvere la struttura VLIW4, avremmo visto sempre più belle GPU e sempre meno consumi, mi dispiace moltissimo abbiano "dovuto" cambiare target.
Io sogno sempre magari un ritorno all'architettura VLIW4, ma mi rendo ben conto, che è un passo che non verrà mai fatti, ora meglio ottimizzare GCN. Staremo a vedere con GCN 2.0, se il nostro interesse si farà nuovamente vivissimo grazie a una sorpresa che forse AMD ci farà. Speriamo e incrociamo le dita. :sperem:
Purtroppo Amd si è dovuta adeguare a quello che gli chiedeva il mercato per le sue vga , e non gli chiedeva soltanto una vga per giocare . sapeva anche che non tutti gli clienti Amd si sarebbero rivolti alle firequadro professionali ,vuoi perché troppo specializzate nei loro compiti sia perché molto più costose.
Siccome sto facendo test...mi è arrivata a casa una HD6570 di Dell oggi, così la testo e alzo le frequenze per vedere fino a dove arriva...il CCC mi limita l'overclock della GPU a 675 da 650...per le RAM è meglio, il massimo è 1000mhz invece di 900 di def. Come faccio a superare queste soglie?
E poi un'altra cosa, la voglio mnettere a passivo, ho un dissipatore che ho adattato ai quattro fori delle schede video AMD, se la temperatura dovesse alzarsi molto la GPU si brucia, o è come per il processore che fa spegnere o bloccare il PC?
Scusate l'OT, ma volevo chiedervi qua a voi, visto che parlavamo fino ad ora di VLIW5-VLIW4-GCN e vecchie glorie di AMD...
Usa msi agterburner, è semplice.... Per il discorso passivo valuta bene se overclocchi pure friggono prima i vrm della gpu.... Comunque dovrebbe piantarsi tutto a una certa soglia...
GCN è stata creata ESPRESSAMENTE per l'integrazione e per il GPGPU.. anche Yoss lo disse.
Lato gaming GPU discrete, avrebbero potuto continuare per anni con Vliw4 ed evoluzioni... :(
Sui 28nm avremmo avuto GPU potentissime e che consumavano nulla.
E già...considerando che il top a 40nm erano 96 tmu per 24 simd (64sp a simd) e 32 rops, la prima generazione a 28nm poteva tranquillamente arrivare a 128tm quindi 32 sim per un totale di 2048 simd...insomma la 7970 potevano farla anche cosi e sarebbe stato un chip che potenza alla mano, avrebbe macinato anche più delle 7970 che poi abbiamo avuto (che all'uscita non erano per nulla da sottovalutare).
Oppure guardiamola dall'altro lato, 6970 erano 2.6mln di transistor, 7970 erano 4.3 la crescita non sarebbe stata lineare, ma quello che ho proposto sopra è solo un'aumento del 25% delle sp che in termini di transistor avrebbe portato sui 3.5mln, quindi poteva essere un chip il 15% più piccolo (e quindi meno costoso da produrre e vendere) considerando poi gli "upgrade" che potevi fargli in futuro, visto che i 28nm ti hanno permesso di fare i 6.2mln di transistor sulle 290x e gli 8.9 sulle fury...
ora per dire...supponiamo che come seconda generazione a 28nm il target era raddoppiare le sp iniziali dei 40nm...e supponiamo in prima approssimazione avrebbe portato al raddoppio dei transistor del chip...ecco un possibile vliw 4 con 48 simd quindi 3048 sp ti avrebbe portato un numero di transistor di 5.2mln...minore dei 6.2 richiesti dalla 290x e con 256sp in più (e maggiore efficienza con minore consumo)...poi con il volo pindarico ultimo, quindi canto del cigno 64simd , 4096sp, con circa 7 mln di transistor...
insomma sarebbero stati chip mediamente sempre il 15% più piccoli e dal maggiore impatto...però insomma sic transit gloria mundi
E già...considerando che il top a 40nm erano 96 tmu per 24 simd (64sp a simd) e 32 rops, la prima generazione a 28nm poteva tranquillamente arrivare a 128tm quindi 32 sim per un totale di 2048 simd...insomma la 7970 potevano farla anche cosi e sarebbe stato un chip che potenza alla mano, avrebbe macinato anche più delle 7970 che poi abbiamo avuto (che all'uscita non erano per nulla da sottovalutare)
non capisco che vuoi dire con questo messaggio...
PS: La hd7970 ha 2048 stream processors eh...la mia è ancora oggi velocissima,una signora scheda, a 28nm.
Sbagliato, la 380 è un rebrand della 285, la 380x è un rebrand della m295x, scheda che era solo sui mac 5k in precedenza. Tutte queste vga hanno un chip "Tonga" (gcn 1.2), evoluzione di "Tahiti" (gcn 1.0), cioè il chip che montavano le 7870XT, 7950, 7970 e i rebrand di queste ultime 2, cioè 280 e 280x.
tecnicamente il gnc di tonga è l'evoluzione dell'1.1 di hawaii che ovviamente viene dall'1.0 di tonga...:D :D :D
non capisco che vuoi dire con questo messaggio...
PS: La hd7970 ha 2048 stream processors eh...la mia è ancora oggi velocissima,una signora scheda, a 28nm.
si sono partito dal volo pindarico (non reale ma in prima approssimazione di ordine 0 abbastanza valido)
che partendo da una vliw4 fatta a 40nm dove si avevano 1536sp raggruppati in 24 simd block per 96 tmu continuando su questa archidettura, avendo come idea il target delle 2048 sp (che dire sp solo le sp non si dice nulla le 6970 con 1536 sp andavano meglio delle 5870 vliw5 con 1600 sp) lo potevano tranquillamente realizzare a 28nm semplicemente portando il numero di simd a 32 (nel vliw4 ogni simd era da 64 sp), arrivando al target di 2048 con un chip che a parità di clock sarebbe stato più performante del gnc 1.0 ed avrebbe avuto un numero di transistor il 10%-15% minore, continuando sulla strada "small chip" iniziata con il vliw5.
Era per ricollegarsi a quello che aveva detto il buon Free Gordon, cioè che il vliw4 in ambito gpu discrete poteva avere una forte evoluzione per tutto l'arco narrativo dei 28nm, probabilmente risultato anche la scelta migliore come prestazioni/prezzo (al produttore) rispetto a gcn.
Però le esigenze di amd erano di avere una archidettura gpu adatta al progetto hsa, cioè alla fusione tra gpu e cpu. Da li la semplice passata del vliw4 solo una generazione di schede.
Che poi il gnc cmq abbia sfornato schede che vanno ancora come treni c'è poco da dire e lo ho sottolineato...c'è da dire che però se continuavano con la vliw4 avremmo avuto gpu che a parità di clock sarebbero andate "meglio" e con il costo leggermente minore (ma qui entrano in gioco tanti tanti fattori).
Sempre continuando con il gioco dell'approssimazione 0, sia una sua evoluzione a 3072 sp (equivalente della nostra reale 290x) ed evoluzione a 4096sp (sp equivalente alla fury) in entrambi i casi avremmo avuto chi sempre di 15% più piccolo, anzi nell'incarnazione 290x equivalente, la vga top gamma avrebbe avuto anche maggiori sp con un numero di transistor minori.
GNC ha segnato l'abbandono della strategia, per me vincente, dei chip "piccoli" ad alta efficienza, iniziata con successo dalla serie 3 fino alla serie 6, strategia che in parte anche nvidia, alla sua maniera, ha ripreso ad adottare, dopo aver passato la fase dei "chip megalitici"...
Si ma poi dovevi aspettare driverbogni settimana per mettere qualche cosa a posto.... non rimpiango il cambio di rotta... Lo scheduler hardware impatta non poco a sentire amd rispetto alla soluzione software di nvidia che nemmeno in pascal cambierà.... Sono curioso di vedere come se la caveranno con la vr per esempio in nvidia...
si sono partito dal volo pindarico (non reale ma in prima approssimazione di ordine 0 abbastanza valido)
che partendo da una vliw4 fatta a 40nm dove si avevano 1536sp raggruppati in 24 simd block per 96 tmu continuando su questa archidettura, avendo come idea il target delle 2048 sp (che dire sp solo le sp non si dice nulla le 6970 con 1536 sp andavano meglio delle 5870 vliw5 con 1600 sp) lo potevano tranquillamente realizzare a 28nm semplicemente portando il numero di simd a 32 (nel vliw4 ogni simd era da 64 sp), arrivando al target di 2048 con un chip che a parità di clock sarebbe stato più performante del gnc 1.0 ed avrebbe avuto un numero di transistor il 10%-15% minore, continuando sulla strada "small chip" iniziata con il vliw5.
Era per ricollegarsi a quello che aveva detto il buon Free Gordon, cioè che il vliw4 in ambito gpu discrete poteva avere una forte evoluzione per tutto l'arco narrativo dei 28nm, probabilmente risultato anche la scelta migliore come prestazioni/prezzo (al produttore) rispetto a gcn.
Però le esigenze di amd erano di avere una archidettura gpu adatta al progetto hsa, cioè alla fusione tra gpu e cpu. Da li la semplice passata del vliw4 solo una generazione di schede.
Che poi il gnc cmq abbia sfornato schede che vanno ancora come treni c'è poco da dire e lo ho sottolineato...c'è da dire che però se continuavano con la vliw4 avremmo avuto gpu che a parità di clock sarebbero andate "meglio" e con il costo leggermente minore (ma qui entrano in gioco tanti tanti fattori).
Sempre continuando con il gioco dell'approssimazione 0, sia una sua evoluzione a 3072 sp (equivalente della nostra reale 290x) ed evoluzione a 4096sp (sp equivalente alla fury) in entrambi i casi avremmo avuto chi sempre di 15% più piccolo, anzi nell'incarnazione 290x equivalente, la vga top gamma avrebbe avuto anche maggiori sp con un numero di transistor minori.
GNC ha segnato l'abbandono della strategia, per me vincente, dei chip "piccoli" ad alta efficienza, iniziata con successo dalla serie 3 fino alla serie 6, strategia che in parte anche nvidia, alla sua maniera, ha ripreso ad adottare, dopo aver passato la fase dei "chip megalitici"...
Benissimo, ora ho capito bene il discorso che volevi fare, e condivido, sarebbe stato veramente bello vedere AMD impegnata a proseguire con l'architettura ottimizzatissima di VLIW4, e vedere le odierne R9 con quell'architettura, e magari con la nomenclatura "vecchia", che io preferivo e che ora veramente mi manca...sarebbe stato bellissimo leggere di una HD8970 o adesso di una HD9970 da 4096 stream processors in 15% meno spazio di oggi. Ma purtroppo non è andata così, vediamo veramente e speriamo molto di vedere un grande miglioramento in termini di efficenza con GCN 2.0 per poter magari anche avere GPU a 512 stream processors (quindi un adeguata potenza grafica) che consumino solo 20W...anche se la vedo dura con RAM GDDR5...
Si ma poi dovevi aspettare driverbogni settimana per mettere qualche cosa a posto.... non rimpiango il cambio di rotta... Lo scheduler hardware impatta non poco a sentire amd rispetto alla soluzione software di nvidia che nemmeno in pascal cambierà.... Sono curioso di vedere come se la caveranno con la vr per esempio in nvidia...
quello è un'altro paio di maniche, anche se c'è da dire che se tieni una archidettura per 4 o 5 anni, il primo anno piangi, poi dopo è quasi sempre in discesa, considerando che prima amd sfornava un dvr ogni mese e a cambiare un dvr ci vogliono 5 minuti, non dico settimanalmente, ma mensilmente la cosa si può fare.
sgrinfia
20-12-2015, 09:38
Ciao, ho visto nel sito Amd , che c'ì sono i nuovi driver Crismos certificati qualcuno li a provati ?.:)
epimerasi
22-12-2015, 21:18
si sono partito dal volo pindarico (non reale ma in prima approssimazione di ordine 0 abbastanza valido)
che partendo da una vliw4 fatta a 40nm dove si avevano 1536sp raggruppati in 24 simd block per 96 tmu continuando su questa archidettura, avendo come idea il target delle 2048 sp (che dire sp solo le sp non si dice nulla le 6970 con 1536 sp andavano meglio delle 5870 vliw5 con 1600 sp) lo potevano tranquillamente realizzare a 28nm semplicemente portando il numero di simd a 32 (nel vliw4 ogni simd era da 64 sp), arrivando al target di 2048 con un chip che a parità di clock sarebbe stato più performante del gnc 1.0 ed avrebbe avuto un numero di transistor il 10%-15% minore, continuando sulla strada "small chip" iniziata con il vliw5.
Era per ricollegarsi a quello che aveva detto il buon Free Gordon, cioè che il vliw4 in ambito gpu discrete poteva avere una forte evoluzione per tutto l'arco narrativo dei 28nm, probabilmente risultato anche la scelta migliore come prestazioni/prezzo (al produttore) rispetto a gcn.
Però le esigenze di amd erano di avere una archidettura gpu adatta al progetto hsa, cioè alla fusione tra gpu e cpu. Da li la semplice passata del vliw4 solo una generazione di schede.
Che poi il gnc cmq abbia sfornato schede che vanno ancora come treni c'è poco da dire e lo ho sottolineato...c'è da dire che però se continuavano con la vliw4 avremmo avuto gpu che a parità di clock sarebbero andate "meglio" e con il costo leggermente minore (ma qui entrano in gioco tanti tanti fattori).
Sempre continuando con il gioco dell'approssimazione 0, sia una sua evoluzione a 3072 sp (equivalente della nostra reale 290x) ed evoluzione a 4096sp (sp equivalente alla fury) in entrambi i casi avremmo avuto chi sempre di 15% più piccolo, anzi nell'incarnazione 290x equivalente, la vga top gamma avrebbe avuto anche maggiori sp con un numero di transistor minori.
GNC ha segnato l'abbandono della strategia, per me vincente, dei chip "piccoli" ad alta efficienza, iniziata con successo dalla serie 3 fino alla serie 6, strategia che in parte anche nvidia, alla sua maniera, ha ripreso ad adottare, dopo aver passato la fase dei "chip megalitici"...
Continuare con quell'architettura sarebbe stata una sciocchezza perché si prestava male al futuro indirizzo che l'industria GPU vuole dare a questi processori.
Con GCN AMD ha anticipato cose che nVidia ha introdotto dopo (o deve ancora introdurre), vedi:
http://www.extremetech.com/extreme/213519-asynchronous-shading-amd-nvidia-and-dx12-what-we-know-so-far
In questo senso GCN è un architettura più moderna di quella nVidia.
appleroof
23-12-2015, 13:16
vr-zone.com/articles/samsung-to-manufacture-amds-next-gen-chips-on-its-14nm-lpp-node/103372.html
Continuare con quell'architettura sarebbe stata una sciocchezza perché si prestava male al futuro indirizzo che l'industria GPU vuole dare a questi processori.
Con GCN AMD ha anticipato cose che nVidia ha introdotto dopo (o deve ancora introdurre), vedi:
http://www.extremetech.com/extreme/213519-asynchronous-shading-amd-nvidia-and-dx12-what-we-know-so-far
In questo senso GCN è un architettura più moderna di quella nVidia.
Sicuramente GCN è una archidettura valida, partendo dal presupposto che il progetto finale era l'HSA e l'unione tra gpu e cpu.
Quello che si discuteva con free gordon era i potenziali sviluppi del vliw4 abbandonato un pò troppo presto dopo 1 sola generazione, a meno che il vliw4 non fosse il punto di arrivo del vliw5 nato con le 2900.
Probabilmente potevano continuare uno sviluppo per vliw4 per l'high end e lavorare su gnc per l'integrazione. Alla fine hanno voluto usare una archidettura unica ed hanno fatto bene come gestione dei costi.
Sul discorso di "chi è più moderno" è sempre bene evitare quando si parla di tecnicismi, le cose sono "moderne" se poi l'innovazione che metti viene presa come standard dal mercato degli sviluppatori e ti dicono "si la tua implementazione ci piace e vogliamo iniziare a sviluppare su quella implementazione". Sia AMD/ATI che nvidia hanno fatto chip pieni di possibili innovazioni che sulla carta e ad ai progettisti facevano sbavare, poi gli sviluppatori hanno deciso di ignorare e sono morte li al cambio generazionale.
mircocatta
23-12-2015, 13:49
14nm ... wow..
se nvidia rimane al palo con 20nm o 16nm non c'è architettura pro game che tenga
28nm->14nm penso sia il salto più grande che io ricordi da quando mi interesso di schede video (2005)
Radeon80
23-12-2015, 13:51
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/R9-Fury-X2-Gemini-Wegen-Oculus-Rift-HTC-Vive-1181773/
Sembra che abbiano rinviato il rilascio della Fury x2 alla primavera 2016 per rilasciarla in contemporanea con i visori VR.
Mi chiedo poi quanto possa avere senso rilasciare tale scheda video cosi a ridosso del possibile lancio della serie Isole Artiche visto che per giugno-luglio potrebbero essere sul mercato.
A proposito di Isole Artiche.
Quando usciranno vorrei prenderne una da collegare direttamente al vpr e lasciare l'attuale HD6670 collegata al sintoampli, da utilizzare per la sola parte audio: secondo voi è possibile utilizzare contemporaneamente dette due schede video? I drivers sono diversi?
Grazie
Si infatti sono degli ibridi...un po' come il 22nm delle cpu intel....
Free Gordon
23-12-2015, 16:08
Sul discorso di "chi è più moderno" è sempre bene evitare quando si parla di tecnicismi, le cose sono "moderne" se poi l'innovazione che metti viene presa come standard dal mercato degli sviluppatori e ti dicono "si la tua implementazione ci piace e vogliamo iniziare a sviluppare su quella implementazione". Sia AMD/ATI che nvidia hanno fatto chip pieni di possibili innovazioni che sulla carta e ad ai progettisti facevano sbavare, poi gli sviluppatori hanno deciso di ignorare e sono morte li al cambio generazionale.
Quotone.
Il problema è che proprio da questo pdv, GCN è stata di gran lunga l'architettura più sottovalutata/sfruttata fino ad oggi.
Problema che, del resto, è sempre stato quello (a parte rare eccezioni), delle architetture ATI... ;-(
Tanta ingegneria e poco marketing...alla fine non paga.
Free Gordon
23-12-2015, 16:10
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/R9-Fury-X2-Gemini-Wegen-Oculus-Rift-HTC-Vive-1181773/
Sembra che abbiano rinviato il rilascio della Fury x2 alla primavera 2016 per rilasciarla in contemporanea con i visori VR.
Mi chiedo poi quanto possa avere senso rilasciare tale scheda video cosi a ridosso del possibile lancio della serie Isole Artiche visto che per giugno-luglio potrebbero essere sul mercato.
ma tanto chi gliela compra una scheda del genere...senza visori? ;)
Secondo me hanno fatto bene...anzi....io l'avrei fatta uscire già sul PP nuovo, usando il vecchio Fiji..shrinkato..
14nm ... wow..
se nvidia rimane al palo con 20nm o 16nm non c'è architettura pro game che tenga
28nm->14nm penso sia il salto più grande che io ricordi da quando mi interesso di schede video (2005)
Senza dubbio,un calo di grandezza dei transistor del 100%. La metà, non era successo neanche dal passaggio del shrink di 80nm ai 55nm...
Comunque ve la immaginate una bella GPU Oland a 14nm? Discretà velocità anche per i videogames a consumi bassissimi. Stupendo. Assolutamente passiva, consumi sotto i 20W...sarebbe stupenda per gli HTPC.
Pare che gcn 2.0 sarà soprannominato Polaris...arriva l'hdr....shut up and take my money!!!!
scusate se mi infilo nella discussione, sono senza gpu (causa rottura improvvisa) con un budget di 200-250e....cosa mi conviene fare? da quello che leggo in giro il salto prestazionale sarà molto alto ma i tempi dell'uscita sembrano dilungarsi molto....
con una ipotetica 480 potrei rischiare di essere anche al limite con il resto della mia configurazione (ormai datata), conviene acquistare ora e poi piangere successivamente o aspettare?
Radeon80
31-12-2015, 12:13
Puoi provare a scegliere tra la 380 e 380x(tutte e 2 con 4gb).
La prima la trovi sui 230-240 euro,per la 380x si va dai 260 ai 290 euro.
Radeon80
31-12-2015, 12:16
Riguardo poi alla situazione delle 2 versioni di Tonga volevo fare una riflessione.
Dato che per questa estate è prevista l'uscita dell'architettura Polaris e visto che è previsto un forte aumento prestazionale non vorrei che porti ad un invecchiamento rapido delle varie 380 e 380x facendole cosi diventare di botto obsolete.
è proprio quello il mio dubbio....credo proprio che virerò sull'usato...spendere ora 250e per una scheda che diventerà a conti fatti obsoleta tra non molto è da incoscienti.
http://wccftech.com/amd-polaris-2-5-times/
http://wccftech.com/amd-polaris-gpu-architecture-leaked/
sgrinfia
01-01-2016, 01:08
AUGURI DI BUON ANNO A TUTTI AI BELLI E AI BRUTTI.;)
ilrosso92
01-01-2016, 09:52
Puoi provare a scegliere tra la 380 e 380x(tutte e 2 con 4gb).
La prima la trovi sui 230-240 euro,per la 380x si va dai 260 ai 290 euro.
Su amazon la nitro 380 è a 220 e la 380x nitro a 249..disponibilità 5-6 gennaio non ricordo con precisione.
Comunque secondo voi le schede di fascia media come le attuali 380 / 380x con il nuovo processo produttivo avranno un costo similare a queste ultime ? Cioè vale la pena aspettare o prendere subito una 380 per poi rivenderla ?
Su amazon la nitro 380 è a 220 e la 380x nitro a 249..disponibilità 5-6 gennaio non ricordo con precisione.
Comunque secondo voi le schede di fascia media come le attuali 380 / 380x con il nuovo processo produttivo avranno un costo similare a queste ultime ? Cioè vale la pena aspettare o prendere subito una 380 per poi rivenderla ?
Secondo me dipende dalle tue esigenze. Imho il rapporto q/€ delle 380/380x adesso è mostruoso. E cmq tra sei mesi non faranno di certo pena anzi. Il passaggio ai 16nm in teoria dovrebbe permettere un bel salto prestazionale, poi dipende come se la giocheranno, ossia se preferiranno aumentare le prestazioni a parità di tdp, oppure si limiteranno a diminuire il tdp della fascia media
Inviato dal mio XT1092 utilizzando Tapatalk
HadesSaint
02-01-2016, 11:03
http://wccftech.com/amd-polaris-2-5-times/
http://wccftech.com/amd-polaris-gpu-architecture-leaked/
interessante aspettiamo con ansia nuovi articoli nei prossimi mesi :)
interessante aspettiamo con ansia nuovi articoli nei prossimi mesi :)
Già, sperando che non si ripeta la situazione dell'anno scorso con la serie 300 e i continui rimandi
Inviato dal mio XT1092 utilizzando Tapatalk
HadesSaint
02-01-2016, 21:46
Già, sperando che non si ripeta la situazione dell'anno scorso con la serie 300 e i continui rimandi
Inviato dal mio XT1092 utilizzando Tapatalk
beh speriamo dato che quest'anno abbandonero la serie 290 :)
http://wccftech.com/amd-polaris-2-5-times/
http://wccftech.com/amd-polaris-gpu-architecture-leaked/
molto interessante, non sto più nella pelle.
deadbeef
04-01-2016, 13:44
AMD announces Polaris architecture - GCN 4.0
http://www.overclock3d.net/articles/gpu_displays/amd_announces_polaris_architecture_-_gcn_4_0/1
Molto interessante.. speriamo che alle slides seguano i fatti e non ci siano ritardi rispetto alla data indicata. 2 volte perf/watt di fiji è tanta roba (anche se è diverso se si parla della nano, della fury o della fury X, ma in ogni caso sarebbe impressionante). Spero facciano una scheda con le ultime tecnologie da 4 Tflops a 60W di TDP (se mantengono quanto promesso dovrebbero riuscirci)
Crysis90
04-01-2016, 16:17
https://www.youtube.com/watch?v=5g3eQejGJ_A
L'assurdo è che pubblicizzino esplicitamente l'utilizzo di CPU's Intel per l'esecuzione dei test comparativi, quasi come a dire "si, ok, noi battagliamo per la leadership nel campo GPU ma per quanto riguarda la CPU ammettiamo pure noi che Intel è anni luce avanti".
A parte questo, speriamo in un bel 2016 battagliero con Polaris Vs Pascal. ;)
Antimo96
04-01-2016, 16:41
Parlano di consumi pari alla metá di maxwell per la fascia media/bassa.Polaris sconosciuta in battlefront 1080p meio 60 fps 84 watt,gtx 950 140(non capisco come abbia consumato tanto però)
gtx 950 140(non capisco come abbia consumato tanto però)
mi sembra fuffa quel test. se sono watt totali del sistema, ovviamente sono troppo pochi, se sono della scheda, è già tanto se la 950 raggiunge i 110-120.
Max Power Draw: 110W
Recommended PSU: 350W
NeverKnowsBest
04-01-2016, 17:50
eh si invece come dici te dovrebbero dire:
"per fare i test utilizzate l'FX-8350 del 2012 è powa nei giochi !1!11!!!"
no dico, ma sei serio?
cosa dovrebbero dire? "la nostra cpu top è migliore di quella intel e utilizzate un 9570 per fare i test" quando non è così?
ma prima di scrivere ragioni?
...
ps che poi hanno utilizzato pure un i7 4790k limitato al 80%, è un test fatto per evidenziare il risparmio di watt per quella fascia
tra l'altro se non l'avessero detto sarebbe stato "scorretto", per cui io lo vedo solo come un fatto di estrema onestà, in un campo dove ci sono fior fior di "trucchetti" in ambito di benchmark e demonstration
LurenZ87
04-01-2016, 18:12
Andrebbe valutata anche la differenza tra i 14nm di Samsung (usati da AMD, cosa che nemmeno la redazione di Hardware Upgrade si è accorta :doh: ) contro i 16nm di TSMC (usati da Nvidia).
Questo sarà un anno davvero interessante :O :D
Crysis90
04-01-2016, 19:29
eh si invece come dici te dovrebbero dire:
"per fare i test utilizzate l'FX-8350 del 2012 è powa nei giochi !1!11!!!"
no dico, ma sei serio?
cosa dovrebbero dire? "la nostra cpu top è migliore di quella intel e utilizzate un 9570 per fare i test" quando non è così?
ma prima di scrivere ragioni?
Datti una calmata, non ho detto che dovrebbero dire che le loro CPU sono "POWA" (come dici tu...).
Ma se fossi un dirigente AMD, anche solo per amor proprio e della propria azienda,non pubblicizzerei mai un test con i componenti dell'azienda concorrente. Azienda concorrente che, tra l'altro, ha condotto una pesante politica di concorrenza sleale proprio contro AMD negli anni passati, portandola al quasi tracollo finanziario in cui si trova oggi.
Quindi l'unica cosa certa (oltre ai tuoi inutili toni arroganti...) è che, ad ora, c'è anche da parte di AMD stessa una chiara ammissione di "arretratezza" dal lato CPU.
Tornando IT, un grosso errore che potrebbero commettere in AMD è quello di dare priorità all'efficienza e mettere in secondo piano le raw performances, visto che i veri PC Gamers ed enthusiast gamers se ne fregano dei consumi ma badano solo ed esclusivamente alla performance pura della GPU.
Soprattutto vista l'incombenza di Nvidia e della sua nuova architettura Pascal.
Quello che dici è vero, tuttora apprezzo e ritornerei volentieri alla 7970/ 280x per le sua prestazioni in double precision. Però è anche vero che il 90% del mercato delle schede dedicate non sono di fascia alta e non cerca le prestazioni a discapito dell'efficienza nei giochi. L'ideale sarebbe avere entrambe le cose :D
Datti una calmata, non ho detto che dovrebbero dire che le loro CPU sono "POWA" (come dici tu...).
Ma se fossi un dirigente AMD, anche solo per amor proprio e della propria azienda,non pubblicizzerei mai un test con i componenti dell'azienda concorrente. Azienda concorrente che, tra l'altro, ha condotto una pesante politica di concorrenza sleale proprio contro AMD negli anni passati, portandola al quasi tracollo finanziario in cui si trova oggi.
Quindi l'unica cosa certa (oltre ai tuoi inutili toni arroganti...) è che, ad ora, c'è anche da parte di AMD stessa una chiara ammissione di "arretratezza" dal lato CPU.
Tornando IT, un grosso errore che potrebbero commettere in AMD è quello di dare priorità all'efficienza e mettere in secondo piano le raw performances, visto che i veri PC Gamers ed enthusiast gamers se ne fregano dei consumi ma badano solo ed esclusivamente alla performance pura della GPU.
Soprattutto vista l'incombenza di Nvidia e della sua nuova architettura Pascal.
Concordo, senza contare che significa anche che a 10 mesi dall'uscita (forse) di Zen, non hanno ancora dei sample funzionanti.
Detto questo, a me frega sega del consumo, anche fossero 80W in piu, Nvidia neanche per sbaglio la prendo piu.
sgrinfia
04-01-2016, 21:14
Concordo, senza contare che significa anche che a 10 mesi dall'uscita (forse) di Zen, non hanno ancora dei sample funzionanti.
Detto questo, a me frega sega del consumo, anche fossero 80W in piu, Nvidia neanche per sbaglio la prendo piu.
Guarda voglio dire la mia , io prendo chi mi da di più al minor prezzo sia Intel, Amd ho Invidia.
Però una cosa e certa , dei consumi mi importa poco ,soprattutto per schede video gamer.:D
Ale55andr0
04-01-2016, 21:23
, visto che i veri PC Gamers ed enthusiast gamers se ne fregano dei consumi l.
n'zomma... direi fin quando ad essere efficienti non sono diventate le verdi :asd:
a ogni modo se, pur con novità nell'architettura, continueranno di base a "riciclare" gcn il supporto driver lo avremo in eterno :sofico:
sgrinfia
04-01-2016, 22:45
n'zomma... direi fin quando ad essere efficienti non sono diventate le verdi :asd:
a ogni modo se, pur con novità nell'architettura, continueranno di base a "riciclare" gcn il supporto driver lo avremo in eterno :sofico:
Ai ragione fino alle 480gtx( fermi) erano loro a dire che i consumi non contavano.:asd: :asd:
http://www.anandtech.com/show/9886/amd-reveals-polaris-gpu-architecture
Articolo di anadtech sulle preview di Polaris gcn 4
Crysis90
05-01-2016, 12:49
ora ti è più chiaro il motivo di quella scelta?
se con zen tra circa 12 mesi avranno delle cpu ad 8 core da 95watt come dicono stai pur certo che useranno quelle nei loro test
Chiaro, sta di fatto che se non si danno 'na svegliata fanno la (brutta) fine di Bulldozer. ;) :(
killeragosta90
05-01-2016, 15:10
[UPDATED] 1st AMD Polaris GPU Could Launch In 2 Months – To Bring A Historic Leap In Perf/Watt With 14nm FinFET (http://wccftech.com/amd-polaris/)
Crysis90
05-01-2016, 15:55
ma per cosa? sei un altro che dice che non c'è concorrenza in ambito vga? :stordita:
In ambito GPU, si. Io mi riferivo all'ambito CPU, dove Intel (ad oggi) è almeno 5 anni avanti ad AMD. ;)
Radeon80
05-01-2016, 18:18
Adesso gira in rete la voce che la gpu più piccola della nuova architettura Polaris possa arrivare sul mercato già a marzo e il resto delle gpu a Giugno.
deadbeef
05-01-2016, 18:54
Adesso gira in rete la voce che la gpu più piccola della nuova architettura Polaris possa arrivare sul mercato già a marzo e il resto delle gpu a Giugno.
Hanno capito male, è stata la demo ad essere stata prodotta dopo 2 mesi
[UPDATE 2 : 2016 January 5, 11:59 AM ET] PCPer’s Ryan Shrout issued a clarification stating that the Polaris GPU AMD demoed was up and running after just two months from when initial production kicked off, rather than being brought up to market after two months.
Datti una calmata, non ho detto che dovrebbero dire che le loro CPU sono "POWA" (come dici tu...).
Ma se fossi un dirigente AMD, anche solo per amor proprio e della propria azienda,non pubblicizzerei mai un test con i componenti dell'azienda concorrente. Azienda concorrente che, tra l'altro, ha condotto una pesante politica di concorrenza sleale proprio contro AMD negli anni passati, portandola al quasi tracollo finanziario in cui si trova oggi.
Quindi l'unica cosa certa (oltre ai tuoi inutili toni arroganti...) è che, ad ora, c'è anche da parte di AMD stessa una chiara ammissione di "arretratezza" dal lato CPU.
Tornando IT, un grosso errore che potrebbero commettere in AMD è quello di dare priorità all'efficienza e mettere in secondo piano le raw performances, visto che i veri PC Gamers ed enthusiast gamers se ne fregano dei consumi ma badano solo ed esclusivamente alla performance pura della GPU.
Soprattutto vista l'incombenza di Nvidia e della sua nuova architettura Pascal.
Si e no, le politiche scorrette di intel hanno evitato ad AMD di prendere una pesante quota di mercato nel periodo dei k7-k8 quindi athlon XP / 64.
quindi per un'arco temporale dal 2001 al 2007 circa. 6 anni sulla cresta dell'onda gli avrebbero permesso di accumulare più guadagni da spendere per una maggiore r&d, ma insomma se sei riuscito a sbaragliare intel sviluppando il k7 con i guadagni fatti da k6 e sviluppando gli amd64 con i guadagni fatti da k7 vuol dire che cose incredibili le sai fare anche senza grossi budget.
Poi intel torna con il conroe e amd spara un'attimo a vuoto con il primo giro di k10 per riprendersi con i phenomII.
Però semplicemente da quel momento amd torna alla situazione "pre k7" ovvere con intel che fa da driver e amd che insegue, provando a sparare fuori una archidettura meglio o illuminata come la k7 prima ed il k8 poi, illuminazione, che per quanto i phenomII e gli FX fossero buoni, non hanno avuto.
Il tracollo finanziario di amd è stato quando ha deciso di investire 5.4 mld di $ per comprarsi ati, invece di investirli in r&d per nuove cpu e pompare le fab di dresda e investire nelle nuove in costruzione a NY. E diciamocela tutta, all'inizio amd nemmeno pensava alle apu, semplicemente gli serviva una ditta che avesse già un chipset pronto in modo da fare come intel, vendere un pacchetto completo chipset+cpu...considerando che al momento dell'acquisto, amd non produceva un chipset dall'epoca del 760 irongate su amd k7 per slot1, via eraquasi fallita e gli unici due a produrre chipset per amd erano nvidia con l'nforce e ati con il suo crossfire 1600/3200 (poi ribattezzati 480x e 580x), la scelta era o comprare una di quelle due (o almeno la divisione chipset) o spendere in casa per "ricostruire" il know-how per fare chipset.
Con il senno del poi, davvero forse era meglio che sti 5.4 mld di dollari se li spendeva tra potenziare le fab ed r&d per cpu e chipset per fatti suoi.
Stiamo parlando di eventi che ormai coprono 16 anni (xd lacrimuccia, so entrato adolescente su sto forum e adesso ho una casa tutta mia^^)...
con il senno del poi penso che nell'arco 2001-2007 intel abbia evitato ad amd di prendersi un buon 35-40% del mercato, anche con politiche zozze...ma il tracollo di amd c'è stato in concomitanza con la scelta "folle" di strapagare ATI...scelta che ad oggi paga e non paga...paga per tutto il lavoro sulle apu, ma non paga se valuti che poi il sistema di lavoro è diventato quello su modello ATI (fabless) e non è stato su modello AMD (cioè azienda con fabbriche che si produce in casa tutti i suoi prodotti)
Insomma ironia della sorte alla fine sembra quasi che sia stata ATI a comprarsi AMD e non viceversa
(tra l'altro perdendo tantissimi treni, ati aveva già subodorato che gli smartphone avrebbero fatto il botto e aveva aperto una divisioncina per le gpu mobile, divisioncina che è stata svenduta a qualcomm con tutti i brevetti annessi e connessi ad un progetto che si chiama adreno non so se rendo l'idea)
Attualmente AMD è un'azienda fabless che disegna progetti e deve vendere il progetto che tira di più, sanno benissimo che attualmente non hanno una cpu di fascia alta di livello adatta a fare da supporto alle prestazioni delle gpu (che vendono), quindi a denti stretti , pur di vendere vga usano anche piattaforme senza cpu disegnate da loro.
Non ci vedo nulla di sbagliato, ne di strano, considerando quanto è cambiata la stessa azienda in 15 anni di vita.
[UPDATED] 1st AMD Polaris GPU Could Launch In 2 Months – To Bring A Historic Leap In Perf/Watt With 14nm FinFET (http://wccftech.com/amd-polaris/)
Cavoli ma vi immaginate una bella ipotetica R7 440 con 512 stream processors a 14nm??? :smack: :sperem:
Consumi inferiori ai 20W, completamente passiva, ottima possibilità di overclock...mamma mia a me ste cose fanno una gola pazzesca...:sperem: :sperem:
O magari entrando nei 75W di TDP dello slot PCI-E quanta potenza potremmo avere con 14nm? Eh si, questo sarà proprio un bellissimo anno per le schede video finalmente :cincin: :cincin:
HadesSaint
09-01-2016, 13:14
spero di farmi un bel regalo per la nascita di mio/a figlio/a a luglio 2016 :):)
una bell'erede della 290 con i contro bip :)
Cavoli ma vi immaginate una bella ipotetica R7 440 con 512 stream processors a 14nm??? :smack: :sperem:
Consumi inferiori ai 20W, completamente passiva, ottima possibilità di overclock...mamma mia a me ste cose fanno una gola pazzesca...:sperem: :sperem:
O magari entrando nei 75W di TDP dello slot PCI-E quanta potenza potremmo avere con 14nm? Eh si, questo sarà proprio un bellissimo anno per le schede video finalmente :cincin: :cincin:
Non interessa.... Almeno 6000 sp e 250w :O Il resto ė noia
Oirasor_84
09-01-2016, 17:47
mi sembra fuffa quel test. se sono watt totali del sistema, ovviamente sono troppo pochi, se sono della scheda, è già tanto se la 950 raggiunge i 110-120.
Max Power Draw: 110W
Recommended PSU: 350W
Dal video sembra essere il consumo dell'intera piattaforma https://www.youtube.com/watch?v=hvD37UUcdIo
144w sistema con la gtx950
85w sistema con polaris
Dal video sembra essere il consumo dell'intera piattaforma https://www.youtube.com/watch?v=hvD37UUcdIo
144w sistema con la gtx950
85w sistema con polaris
Si però dice che i sistemi sono gemelli eccetto per la VGA. Quindi la differenza di consumo è unicamente dovuta a loro
Inviato dal mio XT1092 utilizzando Tapatalk
Ale55andr0
09-01-2016, 19:17
Non interessa.... Almeno 6000 sp e 250w :O Il resto ė noia
se coi 28nm sono arrivati a 4000 e rotti coi 14 ne voglio almeno 8000, a due a due in coppia così poi si riproducono pure :O
pierluigip
09-01-2016, 19:21
se coi 28nm sono arrivati a 4000 e rotti coi 14 ne voglio almeno 8000, a due a due in coppia così poi si riproducono pure :O
per l'accoppiamento e la riproduzione serve il grafene ...
Ale55andr0
09-01-2016, 19:28
per l'accoppiamento e la riproduzione serve il grafene ...
che arriverà assieme alle texture procedurali usate nel rendering di base pure nei titoli "da giornalaio" :asd:
Oirasor_84
09-01-2016, 20:00
se coi 28nm sono arrivati a 4000 e rotti coi 14 ne voglio almeno 8000, a due a due in coppia così poi si riproducono pure :O
Allora puoi stare tranquillo,visto che la strategia dia amd fin'ora è stata quella di ficcare sp a manetta :D
Oirasor_84
09-01-2016, 20:02
Si però dice che i sistemi sono gemelli eccetto per la VGA. Quindi la differenza di consumo è unicamente dovuta a loro
Inviato dal mio XT1092 utilizzando Tapatalk
si si,infatti rispondevo all'utente che non si fidava del test per via dei 150w che potevano sembrare pochi per l'intero sistema con la gtx950.
Entrambi i sistemi sono cappati a 60fps.
Il consumo è quello dell'intero sistema.
150w sono credibilissimi con una gtx950, l'altro giorno ho misurato 196watt in gioco su AC:Unity con CPU x4 860k e GPU 960 GTX
Fai anche 80-90...100W :D
C'è anche da considerare che GCN ha il grosso gap rispetto a Maxwell del memory controller gigante...e quindi parte del consumo in più va lì..
Cmq anche rispetto a Kepler era un pò più esoso in termini di consumi.
nei picchi non di media.
Quotone.
Il problema è che proprio da questo pdv, GCN è stata di gran lunga l'architettura più sottovalutata/sfruttata fino ad oggi.
Problema che, del resto, è sempre stato quello (a parte rare eccezioni), delle architetture ATI... ;-(
Tanta ingegneria e poco marketing...alla fine non paga.
e mancanza driver adeguati per dx 11.
e mancanza driver adeguati per dx 11.È un problema che hanno tutt'ora. E con l'avvento delle DX12, che eliminano del tutto questa limitazione, non credo che lo risolveranno.
È un problema che hanno tutt'ora. E con l'avvento delle DX12, che eliminano del tutto questa limitazione, non credo che lo risolveranno.
Ma esistono ste dx12, veramente?
OEidolon
12-01-2016, 18:36
Ma esistono ste dx12, veramente?
Mah...secondo me aspettano di farle uscire con HL3 :asd:
Mah...secondo me aspettano di farle uscire con HL3 :asd:
Dx12 = 1+2=3
Hl2 episode 3 confirmed
Hl3 confirmed
"Amplein!"
psycho91
12-01-2016, 18:53
http://wccftech.com/amd-confirms-polaris-gpus-released-school-season-desktops-laptops/
Polaris arriva prima di settembre.
NODREAMS
12-01-2016, 22:16
Dietro l'angolo praticamente..... Doh!
sgrinfia
13-01-2016, 12:11
Raga....Niente pippe con Invidia:D
Driver Nvidia con un bug a luci rosse irrisolto da due anni
di Manolo De Agostini - @mdeagostini 13 Gennaio 2016, 07:59 38 commenti
Un bug nei driver Nvidia, irrisolto da 2 anni, permette a contenuti visti in precedenza di apparire a schermo per errore (con risultati tragicomici).
I driver Nvidia hanno un bug da almeno due anni. A darne notizia è Evan Andersen il quale in un post sul proprio blog racconta la singolare vicenda di quando, pronto per giocare a Diablo III, avviò il gioco ma al posto del titolo di Blizzard sullo schermo comparve il sito pornografico che aveva visitato poche ore prima (astenersi moralisti e moralizzatori…).
"Come la scena di un film hollywoodiano il gioco si è temporaneamente bloccato all'avvio impedendo ogni tentativo di ripulire lo schermo", spiega Andersen. Cos'era successo? Semplicemente un bug nei driver ha impedito alla memoria della scheda video di cancellarsi, consentendo a contenuti di un'applicazione di "apparire" all'avvio di un'altra. Andersen aveva visitato il sito pornografico con Google Chrome in modalità incognito.
nvidia porn bug
La schermata, debitamente censurata, apparsa ad Andersen
"Quando la finestra incognito di Chrome è stata chiusa il suo framebuffer è stato aggiunto al pool della memoria libera della GPU, ma non è stato cancellato. Quando Diablo ha richiesto il framebuffer per sé, Nvidia ha servito quello usato in precedenza da Chrome e dato che non era stato cancellato conteneva i contenuti precedenti. Poiché Diablo non pulisce il buffer da sé (dovrebbe), la vecchia finestra è apparsa nuovamente a schermo", ha aggiunto.
Andersen è poi riuscito a riprodurre il bug con successo. "È problema serio", ha affermato pur sottolineando che è anche "facilmente risolvibile. Una patch dei driver dovrebbe assicurare che i buffer siano sempre cancellati prima di assegnarli a un'applicazione. È ciò che fa un sistema operativo con la RAM e ha senso seguire le stesse regole con una GPU. Inoltre Chrome potrebbe cancellare le risorse legate alla GPU prima di chiudersi".
Dicevamo che il problema è vecchio di due anni, ma a oggi né Nvidia né Google si sono adoperate per risolverlo. Andersen ha comunque avvisato da tempo le due aziende. "Nvidia è a conoscenza del problema e Google ha indicato il bug come non risolvibile perché la modalità incognito di Chrome non è stata pensata per proteggervi dagli altri utenti sullo stesso computer". Chissà se il clamore mediatico porterà Nvidia o Google a intraprendere eventuali azioni.
Come nota a margine segnaliamo che Nvidia ha pubblicato nelle scorse ore i driver GeForce HotFix 361.60 che risolvono alcuni problemi legati ai crash dei software Photoshop e Illustrator di Adobe e altri inconvenienti legati a installazione e frequenze.
Morale della favola ,gli utenti Invidia non diventeranno mai cechi :asd: :asd:
Raga....Niente pippe con Invidia:D
Driver Nvidia con un bug a luci rosse irrisolto da due anni
di Manolo De Agostini - @mdeagostini 13 Gennaio 2016, 07:59 38 commenti
Un bug nei driver Nvidia, irrisolto da 2 anni, permette a contenuti visti in precedenza di apparire a schermo per errore (con risultati tragicomici).
I driver Nvidia hanno un bug da almeno due anni. A darne notizia è Evan Andersen il quale in un post sul proprio blog racconta la singolare vicenda di quando, pronto per giocare a Diablo III, avviò il gioco ma al posto del titolo di Blizzard sullo schermo comparve il sito pornografico che aveva visitato poche ore prima (astenersi moralisti e moralizzatori…).
"Come la scena di un film hollywoodiano il gioco si è temporaneamente bloccato all'avvio impedendo ogni tentativo di ripulire lo schermo", spiega Andersen. Cos'era successo? Semplicemente un bug nei driver ha impedito alla memoria della scheda video di cancellarsi, consentendo a contenuti di un'applicazione di "apparire" all'avvio di un'altra. Andersen aveva visitato il sito pornografico con Google Chrome in modalità incognito.
nvidia porn bug
La schermata, debitamente censurata, apparsa ad Andersen
"Quando la finestra incognito di Chrome è stata chiusa il suo framebuffer è stato aggiunto al pool della memoria libera della GPU, ma non è stato cancellato. Quando Diablo ha richiesto il framebuffer per sé, Nvidia ha servito quello usato in precedenza da Chrome e dato che non era stato cancellato conteneva i contenuti precedenti. Poiché Diablo non pulisce il buffer da sé (dovrebbe), la vecchia finestra è apparsa nuovamente a schermo", ha aggiunto.
Andersen è poi riuscito a riprodurre il bug con successo. "È problema serio", ha affermato pur sottolineando che è anche "facilmente risolvibile. Una patch dei driver dovrebbe assicurare che i buffer siano sempre cancellati prima di assegnarli a un'applicazione. È ciò che fa un sistema operativo con la RAM e ha senso seguire le stesse regole con una GPU. Inoltre Chrome potrebbe cancellare le risorse legate alla GPU prima di chiudersi".
Dicevamo che il problema è vecchio di due anni, ma a oggi né Nvidia né Google si sono adoperate per risolverlo. Andersen ha comunque avvisato da tempo le due aziende. "Nvidia è a conoscenza del problema e Google ha indicato il bug come non risolvibile perché la modalità incognito di Chrome non è stata pensata per proteggervi dagli altri utenti sullo stesso computer". Chissà se il clamore mediatico porterà Nvidia o Google a intraprendere eventuali azioni.
Come nota a margine segnaliamo che Nvidia ha pubblicato nelle scorse ore i driver GeForce HotFix 361.60 che risolvono alcuni problemi legati ai crash dei software Photoshop e Illustrator di Adobe e altri inconvenienti legati a installazione e frequenze.
Morale della favola ,gli utenti Invidia non diventeranno mai cechi :asd: :asd:
sicuramente meglio una schermata con un bel paio di boobs che una con schermo solo nero :asd:
:D
comunque è apparsa come news su hwupgrade, imputerebbero il problema a mac os x
ho buttato giu' l'esca... vuoi che non sia un bug, ma che stiano per annunciare mac os XXX :sofico: :sofico: :sofico: :oink: :oink:
si sono partito dal volo pindarico (non reale ma in prima approssimazione di ordine 0 abbastanza valido)
che partendo da una vliw4 fatta a 40nm dove si avevano 1536sp raggruppati in 24 simd block per 96 tmu continuando su questa archidettura, avendo come idea il target delle 2048 sp (che dire sp solo le sp non si dice nulla le 6970 con 1536 sp andavano meglio delle 5870 vliw5 con 1600 sp) lo potevano tranquillamente realizzare a 28nm semplicemente portando il numero di simd a 32 (nel vliw4 ogni simd era da 64 sp), arrivando al target di 2048 con un chip che a parità di clock sarebbe stato più performante del gnc 1.0 ed avrebbe avuto un numero di transistor il 10%-15% minore, continuando sulla strada "small chip" iniziata con il vliw5.
Era per ricollegarsi a quello che aveva detto il buon Free Gordon, cioè che il vliw4 in ambito gpu discrete poteva avere una forte evoluzione per tutto l'arco narrativo dei 28nm, probabilmente risultato anche la scelta migliore come prestazioni/prezzo (al produttore) rispetto a gcn.
Però le esigenze di amd erano di avere una archidettura gpu adatta al progetto hsa, cioè alla fusione tra gpu e cpu. Da li la semplice passata del vliw4 solo una generazione di schede.
Che poi il gnc cmq abbia sfornato schede che vanno ancora come treni c'è poco da dire e lo ho sottolineato...c'è da dire che però se continuavano con la vliw4 avremmo avuto gpu che a parità di clock sarebbero andate "meglio" e con il costo leggermente minore (ma qui entrano in gioco tanti tanti fattori).
Sempre continuando con il gioco dell'approssimazione 0, sia una sua evoluzione a 3072 sp (equivalente della nostra reale 290x) ed evoluzione a 4096sp (sp equivalente alla fury) in entrambi i casi avremmo avuto chi sempre di 15% più piccolo, anzi nell'incarnazione 290x equivalente, la vga top gamma avrebbe avuto anche maggiori sp con un numero di transistor minori.
GNC ha segnato l'abbandono della strategia, per me vincente, dei chip "piccoli" ad alta efficienza, iniziata con successo dalla serie 3 fino alla serie 6, strategia che in parte anche nvidia, alla sua maniera, ha ripreso ad adottare, dopo aver passato la fase dei "chip megalitici"...
Ciao Catan, sarebbe bello ci fosse qualche grafico/test che mostri lo sfruttamento effettivo degli shader, come fu fatto ai tempi di g80/r600 e gt200/rv770. Che tu sappia ne esistono anche sulle altre architetture? (tipo la vliw 4 della 6970, Fermi e le architetture dopo queste) Perchè ricordo che tempi indietro specie Beyond3d faceva delle belle analisi sull'utilizzo effettivo degli shader in-games.
sicuramente meglio una schermata con un bel paio di boobs che una con schermo solo nero :asd:Dipende dalla situazione.
C'è il rischio di situazioni che American Pie è niente a confronto :asd:
Spider-Mans
14-01-2016, 09:41
Non interessa.... Almeno 6000 sp e 250w :O Il resto ė noia
ma come hai dimenticato i driver boost prestazionali
aggiungiamo: driver 50% prestazioni in piu... in bundle al lancio..cosi non devi attendere fiducioso xD
Dipende dalla situazione.
C'è il rischio di situazioni che American Pie è niente a confronto :asd:
Ma nooo, dici che è un troja-n :stordita: e ti salvi :D
Sub7 :ciapet: che spettacolo era cambiare i siti a chi navigava o aprirgli una chat all'improvviso, o meglio stampargli la home di un sito xxx :asd:
Free Gordon
14-01-2016, 12:30
e mancanza driver adeguati per dx 11.
Con le dx12 sembra che "quel" problema (quello del multicore), sia fixato... speriamo. :D
Con le dx12 sembra che "quel" problema (quello del multicore), sia fixato... speriamo. :D
Capirai.... Come il discorso della tessellazionemmostruosa su nvidia ... Poi vai a vedere e tutti che disattivano hairworks in tw3 perché impatta troppo asdasdasd si nei bench sono avanti .... Poi....
Free Gordon
14-01-2016, 14:07
Capirai.... Come il discorso della tessellazionemmostruosa su nvidia ... Poi vai a vedere e tutti che disattivano hairworks in tw3 perché impatta troppo asdasdasd si nei bench sono avanti .... Poi....
Cmq sia i driver dx11 di AMD sono troppo pesanti, basta vedere come scalano le performance variando solo le cpu tra AMD/Intel
Ciao Catan, sarebbe bello ci fosse qualche grafico/test che mostri lo sfruttamento effettivo degli shader, come fu fatto ai tempi di g80/r600 e gt200/rv770. Che tu sappia ne esistono anche sulle altre architetture? (tipo la vliw 4 della 6970, Fermi e le architetture dopo queste) Perchè ricordo che tempi indietro specie Beyond3d faceva delle belle analisi sull'utilizzo effettivo degli shader in-games.
Purtroppo no, come al solito l'ambiente si è "imborghesito" e si è abbassato di livello...ci sono state novità rilevanti, come i test non basati solo sugli fps ma sulla generazione del frame (fcat) ma ormai articoli specialistici sulle archidetture non si fanno più....(quanto mi mancano gli articoli di yossarian)...
E' un'altro tipo di mercato e di informazione, quando la roba diventa per tutti i test purtroppo sono allineati per tutti e l'utente medio vuole vedere gli fps non i conti sulle archidetture...
Purtroppo no, come al solito l'ambiente si è "imborghesito" e si è abbassato di livello...ci sono state novità rilevanti, come i test non basati solo sugli fps ma sulla generazione del frame (fcat) ma ormai articoli specialistici sulle archidetture non si fanno più....(quanto mi mancano gli articoli di yossarian)...
E' un'altro tipo di mercato e di informazione, quando la roba diventa per tutti i test purtroppo sono allineati per tutti e l'utente medio vuole vedere gli fps non i conti sulle archidetture...
grandi i tempi del vecchio Yoss!che fine ha fatto?io son rimasto fuori dal mondo pc per un paio d'anni, per disintossicarmi dalla scimmia...che ora è ripartita :D però le cose mi sembran cambiate parecchio, come dici tu noto meno informazioni sulle architetture e codici shader....c'è anche da dire che rispetto a pochi anni fa amd e nvidia hanno architetture gpu più simili rispetto ad un tempo.
grandi i tempi del vecchio Yoss!che fine ha fatto?io son rimasto fuori dal mondo pc per un paio d'anni, per disintossicarmi dalla scimmia...che ora è ripartita :D però le cose mi sembran cambiate parecchio, come dici tu noto meno informazioni sulle architetture e codici shader....c'è anche da dire che rispetto a pochi anni fa amd e nvidia hanno architetture gpu più simili rispetto ad un tempo.
Yoss è sparito e mi dispiace molto, spero tanto che gli vada tutto ok.
Il fatto è che si è completamente abbandonato modo e maniera di fare i test, niente più test sulla qualità dell'AA e dell'AF, niente valutazione delle capacità delle macchine. E' anche vero che sta sparando anche la recensione cartacea o scritta, ormai si iniziano a spostare tutti su YT con video recensioni che sono alla stregua delle rece dei modellini....cioè ti descrivono il prodotto e ti fanno vedere il bench in tempo reale che gira...tralasciando qualsiasi impressione, commento persone o altro....insomma il mercato è questo ormai...
Quanto manca pure a me Yoss e le spiegazioni sull'architettura vere e proprie...vorrei ristudiarmele con calma le novità, dal VLIW 5 al VLIW 4 e ai nuovi GCN...
Einhander
16-01-2016, 13:17
Ma sbaglio o in tempi "antichi" c'era anche un certo "fek" che ne capiva parecchio?
E cmq io avevo capito che si fosse spostato dalle parti di tuttodigitale sbaglio?
mi sa di si ve'?
p.s.: fek non era uno di quelli che lavorava alla creazione di motori grafici dalle parti dei lionhead studios ai tempi dei tempi? tipo 8-9 anni fa o giu' di li???
p.p.s.: cmq bei tempi quelli...bei tempi e gran bella passione di alcuni qui che oltre a scrivere per passione lo facevano anche per lavoro -nel senso capirne di hardware e studiarlo-...ho imparato molto di piu' leggendo i post di yossarian e fek che praticamente in tutte le recensioni dell'epoca italiane o meno...anche se all'epoca non postavo in pratica leggevo solo. E ricordo che alcuni loro post dovevo rileggerli anche due o tre volte per vedere se avevo capito tutto tanto erano specifici a volte, mente altre mi hanno fatto capire come funzionasse un architettura o l'altra senza l'aiuto del'insegnante di sostegno xD..Ma sbaglio o si parla di tempi pre-amd acquisisce Ati???
C'era anche leone azzurro che spingeva...
effettivamente quello che mi rende contento è che molti dei miei compagni "digitali" con i quali ho iniziato l'avventura in adolescenza, adesso lavorano quasi tutti nell'IT e secondo me qualcuno in nvidia, amd o intel ci è pure entrato, so davvero contento per loro^^
sgrinfia
16-01-2016, 18:43
Quanto manca pure a me Yoss e le spiegazioni sull'architettura vere e proprie...vorrei ristudiarmele con calma le novità, dal VLIW 5 al VLIW 4 e ai nuovi GCN...
Sostanzialmente:
ragazzi ,tra GCN e Vliw4 in confronto ha Vliw5 è il cambio radicale nell'0rganizzazione dei core.
Fino alle radeon HD6800, la medesima era dettata da un architettura che AMD definiva VLIW5, che prevedeva l'accorpamento di cinque stream processing unit ( di fatto l'unità di elaborazione più semplice prevista nella GPU) in ciascun core , dove quattro SPU si occupavano esclusivamente di funzioni semplici mentre la quinta, detta"T-unit", svolgeva compiti più elaborati come le funzioni trascendenti. A completare il quadro di ciascun core core ci pensavano poi una singola unità di branch e una serie di registri generici.
Bene possiamo quasi dimenticare tutto questo : nelle radeon Hd 6900 -hd 7900 in poi le tream processing unit smettono di essere di due tipi, ma diventano tutte egualmente in grato di risolvere funzioni semplici e trascendenti, possono operare su interi e in virgola mobile, e sono raccolti a gruppi di quattro , con la solita branch unit e i registri al seguito .
Questo ha permesso ad AMD di semplificare un po' le cose e di risparmiare spazio, ottenendo prestazioni simili al passato in uno spazio inferiore del 10-20% rispetto alle vecchie soluzioni.
E in un mondo gpu dove ogni millimetro quadrato può fare la differenza
Sostanzialmente:
ragazzi ,tra GCN e Vliw4 in confronto ha Vliw5 è il cambio radicale nell'0rganizzazione dei core.
Fino alle radeon HD6800, la medesima era dettata da un architettura che AMD definiva VLIW5, che prevedeva l'accorpamento di cinque stream processing unit ( di fatto l'unità di elaborazione più semplice prevista nella GPU) in ciascun core , dove quattro SPU si occupavano esclusivamente di funzioni semplici mentre la quinta, detta"T-unit", svolgeva compiti più elaborati come le funzioni trascendenti. A completare il quadro di ciascun core core ci pensavano poi una singola unità di branch e una serie di registri generici.
Bene possiamo quasi dimenticare tutto questo : nelle radeon Hd 6900 -hd 7900 in poi le tream processing unit smettono di essere di due tipi, ma diventano tutte egualmente in grato di risolvere funzioni semplici e trascendenti, possono operare su interi e in virgola mobile, e sono raccolti a gruppi di quattro , con la solita branch unit e i registri al seguito .
Questo ha permesso ad AMD di semplificare un po' le cose e di risparmiare spazio, ottenendo prestazioni simili al passato in uno spazio inferiore del 10-20% rispetto alle vecchie soluzioni.
E in un mondo gpu dove ogni millimetro quadrato può fare la differenza
GCN è molto più complessa, le ALU sono in gruppi da 16, molte istruzioni sono emulate (in 4 cicli). Il branch è gestito da unità scalari.
Le dipendenze tra wavefront sono gestite da uno scheduler hardware (come in Kepler), quindi ci sono meno unità in stallo dei vliw, che dipendono interamente dal compilatore.
AMD ha un sistema intricato di latenze e limitazioni(max 1 istruzione per tipo) che gli permette di risparmiare spazio sul silicio.
ps. veramente un peccato che yossarian e pleg non bazzicano più sul forum.:(
sgrinfia
16-01-2016, 20:04
GCN è molto più complessa, le ALU sono in gruppi da 16, molte istruzioni sono emulate (in 4 cicli). Il branch è gestito da unità scalari.
Le dipendenze tra wavefront sono gestite da uno scheduler hardware (come in Kepler), quindi ci sono meno unità in stallo dei vliw, che dipendono interamente dal compilatore.
AMD ha un sistema intricato di latenze e limitazioni(max 1 istruzione per tipo) che gli permette di risparmiare spazio sul silicio.
ps. veramente un peccato che yossarian e pleg non bazzicano più sul forum.:(
yossarian e pleg chi sono ?:mbe: .
LurenZ87
16-01-2016, 20:33
yossarian e pleg chi sono ?:mbe: .
Imho gli utenti più colti in materia presenti su questo forum. Se non ricordo male pleg era un ingegnere di Nvidia.
Inviato dal mio Samsung Galaxy S6 utilizzando Tapatalk
Sostanzialmente:
ragazzi ,tra GCN e Vliw4 in confronto ha Vliw5 è il cambio radicale nell'0rganizzazione dei core.
Fino alle radeon HD6800, la medesima era dettata da un architettura che AMD definiva VLIW5, che prevedeva l'accorpamento di cinque stream processing unit ( di fatto l'unità di elaborazione più semplice prevista nella GPU) in ciascun core , dove quattro SPU si occupavano esclusivamente di funzioni semplici mentre la quinta, detta"T-unit", svolgeva compiti più elaborati come le funzioni trascendenti. A completare il quadro di ciascun core core ci pensavano poi una singola unità di branch e una serie di registri generici.
Bene possiamo quasi dimenticare tutto questo : nelle radeon Hd 6900 -hd 7900 in poi le tream processing unit smettono di essere di due tipi, ma diventano tutte egualmente in grato di risolvere funzioni semplici e trascendenti, possono operare su interi e in virgola mobile, e sono raccolti a gruppi di quattro , con la solita branch unit e i registri al seguito .
Questo ha permesso ad AMD di semplificare un po' le cose e di risparmiare spazio, ottenendo prestazioni simili al passato in uno spazio inferiore del 10-20% rispetto alle vecchie soluzioni.
E in un mondo gpu dove ogni millimetro quadrato può fare la differenza
Si e no, gcn occupa più "transistor" rispetto ad una vliw4 o vliw5, è la prova il fatto che con il passaggio a gcn, amd ha in parte abbandonato la strategia vincente del "piccolo core, grande efficienza" andando sempre più su die molto grandi, quindi in quanto a spazio ne ha dovuto usare di più e non di meno, mentre la rivale nvidia è passata dal fare chipponi megalitici ad una sua personale visione del "piccolo core, grande efficienza"
Come ho detto sopra a parità di unità sp tra un chip vliw e uno gcn gli ultimi richiedono circa un 10-15% di transistor in più. Poi bisogna vedere quale delle due archidetture, a parità di unità ha una maggiore efficienza...e qui credo che gcn sia stato un passo avanti, le 7870 con 1280 sp e gcn 1.0 praticamente andavano di più delle hd6970 che avevano 1536 sp...metti anche che una era a 880 mhz e l'altro a 1000mhz, però diciamo che probabilmente a parità di clock ti servivano 256 sp in più di una vliw4 per pareggiare una gcn.
sgrinfia
16-01-2016, 23:14
GCN è molto più complessa, le ALU sono in gruppi da 16, molte istruzioni sono emulate (in 4 cicli). Il branch è gestito da unità scalari.
Le dipendenze tra wavefront sono gestite da uno scheduler hardware (come in Kepler), quindi ci sono meno unità in stallo dei vliw, che dipendono interamente dal compilatore.
AMD ha un sistema intricato di latenze e limitazioni(max 1 istruzione per tipo) che gli permette di risparmiare spazio sul silicio.
ps. veramente un peccato che yossarian e pleg non bazzicano più sul forum.:(
La Radeon HD 7970 è dotata di 32 Compute Unit (ciascuna dotata 4 SIMD a 16 vie) e 8 Render Back-ends (32 ROPs); complessivamente una GPU “Tahiti” è composta da ben 4.3 miliardi di transistor;)
Yoss è sparito e mi dispiace molto, spero tanto che gli vada tutto ok.
Il fatto è che si è completamente abbandonato modo e maniera di fare i test, niente più test sulla qualità dell'AA e dell'AF, niente valutazione delle capacità delle macchine. E' anche vero che sta sparando anche la recensione cartacea o scritta, ormai si iniziano a spostare tutti su YT con video recensioni che sono alla stregua delle rece dei modellini....cioè ti descrivono il prodotto e ti fanno vedere il bench in tempo reale che gira...tralasciando qualsiasi impressione, commento persone o altro....insomma il mercato è questo ormai...
Non si possono vedere le recensioni di youtube...penso anche che tempo indietro Nvidia e AMD\Ati volessero differenziare chiaramente le architetture,mettendo in risalto i pro o contro. Come hanno iniziato a produrre architetture più "simili" è sparita la volontà di offrire una buona differenziazione e tutto è reso più "unificato". Un tempo non bastava comparare i GigaLoll, numeri nudi e crudi, e basta. Se trovassi info su Yoss mi risenti ;)
GCN è molto più complessa, le ALU sono in gruppi da 16, molte istruzioni sono emulate (in 4 cicli). Il branch è gestito da unità scalari.
Le dipendenze tra wavefront sono gestite da uno scheduler hardware (come in Kepler), quindi ci sono meno unità in stallo dei vliw, che dipendono interamente dal compilatore.
AMD ha un sistema intricato di latenze e limitazioni(max 1 istruzione per tipo) che gli permette di risparmiare spazio sul silicio.
ps. veramente un peccato che yossarian e pleg non bazzicano più sul forum.:(
Quotone! Alu in gruppi da 16..mi ricorda qualcosa..ovviamente molto diverso, ma nella gestione di registri e scheduler si può avvicinare. Sul fatto che dovessero cambiare le vliw 5 concordo appieno, 5 unità in una che però soffriva di pesanti latenze in caso di istruzioni dipendenti non-compilate. Per come si stanno organizzando ora, sia Nvidia che Amd, mi pare quasi di rivedere un unificazione di shader a 4 entrate..non fisicamente ma a livello software..probabilmente alla fine si son resi conto che è la via più comoda per avere potenza/efficienza, con tutte le modifiche che richiede il gestire migliaia di unità,ovvio.:)
C'era anche leone azzurro che spingeva...
effettivamente quello che mi rende contento è che molti dei miei compagni "digitali" con i quali ho iniziato l'avventura in adolescenza, adesso lavorano quasi tutti nell'IT e secondo me qualcuno in nvidia, amd o intel ci è pure entrato, so davvero contento per loro^^
Vero!leoneazzurro è un mostro di sapere sulle gpu.
Radeon80
17-01-2016, 12:54
http://venturebeat.com/2016/01/15/amds- ... k-screens/
In queste intervista Kojuri parla che quest'anno con i 14 nm fin fet rilascieranno due gpu.
Una è quella mostrata nel demo che dovrebbe avere una superficie simile a capo verde e l'altra per la fascia alta e non ho capito se sostiutuirà Hawaii o Fiji.
Sarà una scheda come lo fu la 7970...fascia alta che sorpasserà la fury x attuale ma con un die umano...
Si e no, gcn occupa più "transistor" rispetto ad una vliw4 o vliw5, è la prova il fatto che con il passaggio a gcn, amd ha in parte abbandonato la strategia vincente del "piccolo core, grande efficienza" andando sempre più su die molto grandi, quindi in quanto a spazio ne ha dovuto usare di più e non di meno, mentre la rivale nvidia è passata dal fare chipponi megalitici ad una sua personale visione del "piccolo core, grande efficienza"
Come ho detto sopra a parità di unità sp tra un chip vliw e uno gcn gli ultimi richiedono circa un 10-15% di transistor in più. Poi bisogna vedere quale delle due archidetture, a parità di unità ha una maggiore efficienza...e qui credo che gcn sia stato un passo avanti, le 7870 con 1280 sp e gcn 1.0 praticamente andavano di più delle hd6970 che avevano 1536 sp...metti anche che una era a 880 mhz e l'altro a 1000mhz, però diciamo che probabilmente a parità di clock ti servivano 256 sp in più di una vliw4 per pareggiare una gcn.
GCN è molto più efficiente ed occupa meno area per performance dei vliw4.
In battlefield3 una 7850 ottiene le stesse performance della 6970 che ha un teraflops di vantaggio.
http://tpucdn.com/reviews/Powercolor/HD_7850_PCS_Plus/images/bf3_2560_1600.gif
Ale55andr0
17-01-2016, 13:58
http://venturebeat.com/2016/01/15/amds- ... k-screens/
In queste intervista Kojuri parla che quest'anno con i 14 nm fin fet rilascieranno due gpu.
Una è quella mostrata nel demo che dovrebbe avere una superficie simile a capo verde e l'altra per la fascia alta e non ho capito se sostiutuirà Hawaii o Fiji.
un estratto interessante
"We have two versions of these FinFET GPUs. Both are extremely power efficient. This is Polaris 10 and that’s Polaris 11. In terms of what we’ve done at the high level, it’s our most revolutionary jump in performance so far (grazie al caxxo, sono eoni che non si cambia radicalmente architettrua e pp :asd: ehm...ndr :D). We’ve redesigned many blocks in our cores. We’ve redesigned the main processor, a new geometry processor, a completely new fourth-generation Graphics Core Next with a very high increase in performance. We have new multimedia cores, a new display engine."
oh, almeno così dice lui :O
http://i.imgur.com/qx3d5LC.jpg
Ale55andr0
17-01-2016, 14:01
GCN è molto più efficiente ed occupa meno area per performance dei vliw4.
In battlefield3 una 7850 ottiene le stesse performance della 6970 che ha un teraflops di vantaggio. Forse solo con ottimizzazioni estreme si può ottenere di più da una vliw.
http://tpucdn.com/reviews/Powercolor/HD_7850_PCS_Plus/images/bf3_2560_1600.gif
mmm, all'epoca yoss diceva tipo che vliw4 aveva un "ipc" migliore di GCN se ben ricordo. Insomma la vecchia architettura per come avevo capito aveva più "cavalli per litro" ma era fortemente dipendente dall'ottimizzazione driver e in modo più "complicato".
Se ricordo male/detto cazzate chiedo venia :fagiano:
mmm, all'epoca yoss diceva tipo che vilw4 aveva un !ipc! migliore di GCN se ben ricordo. Insomma la vecchia architettura per come avevo capito aveva più "cavalli per litro" ma era fortemente dipendente dall'ottimizzazione driver e in modo più "complicato".
Se ricordo male/detto cazzate chiedo venia :fagiano:
Esatto non sempre si riusciva ad ottenere le performance teoriche per diverse ragioni.
Il punto è che GCN occupa poca area rispetto ai vliw, senza lo sbattimento(incerto) delle ottimizzazioni.
un estratto interessante
"We have two versions of these FinFET GPUs. Both are extremely power efficient. This is Polaris 10 and that’s Polaris 11. In terms of what we’ve done at the high level, it’s our most revolutionary jump in performance so far (grazie al caxxo, sono eoni che non si cambia radicalmente architettrua e pp :asd: ehm...ndr :D). We’ve redesigned many blocks in our cores. We’ve redesigned the main processor, a new geometry processor, a completely new fourth-generation Graphics Core Next with a very high increase in performance. We have new multimedia cores, a new display engine."
Da quello che si legge nelle slide, sembra abbiano aumentato la complessità dello scheduler hardware ed implementato un pre-fetch aggressivo. (sembra un piccolo passo verso Nv Fermi)
Se vogliono aumentare IPC le strade non sono molte...
Se non ho visto male anche il clock rimane conservativo, quindi niente pipeline lunghe alla nvidia.
Ale55andr0
17-01-2016, 14:22
Da quello che si legge nelle slide, sembra abbiano aumentato la complessità dello scheduler hardware ed implementato un pre-fetch aggressivo. (sembra un piccolo passo verso Nv Fermi)
Se vogliono aumentare IPC le strade non sono molte...
Se non ho visto male anche il clock rimane conservativo, quindi niente pipeline lunghe alla nvidia.
o alla pentium 4 :asd: (che m'hai ricordato :D)
o alla pentium 4 :asd: (che m'hai ricordato :D)
Le GPU non soffrono particolarmente delle lunghezza delle pipe, dato che il loro codice è abbastanza prevedibile. In chiave computing può esserci qualche limitazione in più...
Radeon80
17-01-2016, 14:36
Mi viene da pensare che utilizzeranno una strategia più simile a Nvidia come hanno fatto con Maxwell v2
La gpu di fascia alta sarà tipo GM204 da cui secondo me deriveranno almeno 3 declinazioni per coprire la fascia da 300 ai 550 euro e la versione "piccola" sarà tipo GM206 e coprirà la fascia tra i 100 e 200 euro.
Da quello che si legge nelle slide, sembra abbiano aumentato la complessità dello scheduler hardware ed implementato un pre-fetch aggressivo. (sembra un piccolo passo verso Nv Fermi)
Se vogliono aumentare IPC le strade non sono molte...
Se non ho visto male anche il clock rimane conservativo, quindi niente pipeline lunghe alla nvidia.
Quoto!quello che intendevo..;)
http://venturebeat.com/2016/01/15/amds- ... k-screens/
In queste intervista Kojuri parla che quest'anno con i 14 nm fin fet rilascieranno due gpu.
Una è quella mostrata nel demo che dovrebbe avere una superficie simile a capo verde e l'altra per la fascia alta e non ho capito se sostiutuirà Hawaii o Fiji.
Bell'articolo. Sono sempre più curioso su Polaris...pare voglian fare unbel passo avanti...attendo e rimango sulle mie,prima che la scimmia mi faccia fae cose errate :mbe:
Esatto non sempre si riusciva ad ottenere le performance teoriche per diverse ragioni.
Il punto è che GCN occupa poca area rispetto ai vliw, senza lo sbattimento(incerto) delle ottimizzazioni.
Falso, la 7870 ha 2,8 mld di transistors mentre la 6970 che ha prestazioni simili ne ha 2.64.
La differenza in area sta tutta nel processo produttivo utilizzato (28nm vs 40nm). Ma come ipc non vi e' alcun chiaro e netto vantaggio a favore di gcn
Intendevo che occupa poca area in relazione alla sua architettura con scheduler hardware che gli consente di ottenere più performance di una vliw4-5 che ha molte più alu. Se guardi i bench bastano 1024alu (clock simile) per pareggiare una vliw4-5 da +1500alu. Purtroppo il compilatore difficilmente ottiene IPC teorico in una vliw...
io non ho commentato, ma mi pareva chiaro, che Ren intedesse superficie/prestazioni, mentre io parlavo di numero di transistor in senso assoluto.
XxMarcusxX
27-01-2016, 13:06
Si sa più o meno quando usciranno quelle di fascia alta?
E' auspicabile un lancio entro giugno. In ogni caso da quando i rumor incominceranno ad essere martellanti, dagli 1/2 mesi e non di piu' e le trovi sugli scaffali, come è sempre successo. :D
E' auspicabile un lancio entro giugno. In ogni caso da quando i rumor incominceranno ad essere martellanti, dagli 1/2 mesi e non di piu' e le trovi sugli scaffali, come è sempre successo. :D
bene bene per quella data avro' 600 euro da investire :asd: :asd:
Solo il meglio, solo AMD
bene bene per quella data avro' 600 euro da investire :asd: :asd:
Solo il meglio, solo AMD
Minchia, sembri la pubblicità della STAR :asd:
Appena letto la parte finale m'è partita la musichetta in testa.
Volevo dirla io 'sta cazzata però :cry: :cry: :cry:
Freeman pensaci tuuuuuu :stordita:
Freeman pensaci tuuuuuu :stordita:
Tranquillo! :O...
Ci pens... oh, wait! :fagiano:
:sob:
Ale55andr0
28-01-2016, 12:48
Tranquillo! :O...
Ci pens... oh, wait! :fagiano:
:sob:
tanto eri troppo buono come mod :O
OEidolon
28-01-2016, 13:22
tanto eri troppo buono come mod :O
attento che non si può discutere dell'operato dei mod in pubblico :asd: :sofico:
Non vedo l'ora della nuova generazione amd.
Non compro Nvidia nemmeno sotto tortura.
Non vedo l'ora della nuova generazione amd.
Non compro Nvidia nemmeno sotto tortura.What happened, my dear friend? :asd:
Anche perchè le voci dicono che nvidia lancia una nuova titan con prezzo fuori di testa e delle 1070/1080 che avranno prestazioni pari alla 980ti ma con tdp ridotto, per una 1080ti bisogna aspettare il 2017.
Nvidia ha già pubblicato i dati teorici DP di Pascal (tesla), 2.4Teraflops.
Se vogliono mantenere il design del 980Ti+fp64 devono sparare le frequenze parecchio in alto (+1550). Non mi sembra la scelta ottimale per GPU destinate al computing HPC...
What happened, my dear friend? :asd:
Obsolescenza programmata di Nvidia?
960 che superano 780 e 780 ti che sarebbero 48 % circa più potenti e veloci (e lo sono su tutti i giochi pre maxwell fondamentalmente)?
GameWorks?
Problemi sui giochi che usano gameworks (project cars, watch dogs, arkham, ecc)?
Parliamoci chiaramente, Nvidia ha in mano il 75-80% del mercato. La loro unica concorrenza sono ormai gli stessi utenti Nvidia a cui bisogna far cambiare scheda.
Io mi incazzo a vedere 750ti che superano la mia 670 occata su tutti i giochi con zampino Nvidia.
e se giochi lo devi volere o non hai capito una cippa
Non esageriamo.
Tutte le tecnologie di sync, tutte, aumentano l'input lag per definizione poichè il monitor attende a rappresentare un frame finchè questi non è correttamente generato.
Quindi non è vero che non hai capito una cippa.
Comunque, piccolo parere personale, ormai è diventata un ossessione questo benedetto sync. La cosa più bella è che per il 95 % del mercato che ha monitor decenti (dall'u2312hm in su) sono problemi praticamente inesistenti a meno di fps bassi.
Obsolescenza programmata di Nvidia?
960 che superano 780 e 780 ti che sarebbero 48 % circa più potenti e veloci (e lo sono su tutti i giochi pre maxwell fondamentalmente)?
GameWorks?
Problemi sui giochi che usano gameworks (project cars, watch dogs, arkham, ecc)?
Parliamoci chiaramente, Nvidia ha in mano il 75-80% del mercato. La loro unica concorrenza sono ormai gli stessi utenti Nvidia a cui bisogna far cambiare scheda.
Io mi incazzo a vedere 750ti che superano la mia 670 occata su tutti i giochi con zampino Nvidia.
Questo è ragionare!
:read:
Si sa più o meno quando usciranno quelle di fascia alta?
qui dicono che la nuova serie sia gia' in produzione e che per Marzo dovrebbero essere commercializzate
http://wccftech.com/amd-polaris/
Hai dimenticato i 100 e passa euro di pizzo per avere adaptive sync che si mangia 3 fps :D
Preciso che io non ho schede amd da 10 anni circa. La mia ultima scheda amd è stata una 9600xt.
Però quando vedo questo tipo di politiche da parte Nvidia mi arrabbio.
E poi vogliamo parlare della consistenza dei benchmark su amd?
Non come Nvidia che compri una 670/680 più veloce di una 7970 e con i giochi rilasciati due anni dopo per qualche motivo una 280x vola e una 680 sta dietro.
E questo anche su giochi gameworks come quella pecionata di Fallout 4:
http://media.gamersnexus.net/images/media/2015/game-bench/witcher-bench-1080-m.jpg
Seriamente una 770 che va come una 270x????
http://www.guru3d.com/index.php?ct=articles&action=file&id=20517
Una 770 surclassata da una 950 in un titolo senza gameworks??
7970 che battagliano con una titan?
http://www.techspot.com/articles-info/1096/bench/1080p.png
280x più veloci del 50 % di una 670???
http://www.guru3d.com/index.php?ct=articles&action=file&id=13491
Ah per non parlare di quanto mantengano i driver..al lancio di Fallout 4 "wow Nvidia è la migliore"...e ora???
http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-RPG-Fallout_4_Beta_Patch_1.3-test-fall4_2560_s.jpg
E gcn 1.0 a distanza di 4 anni (cinque?) mi battaglia con le maxwell, ma che fine ha fatto Kepler?
Se Nvidia non attua obsolescenza programmata non lo so io..
E Gameworks deve morire, ogni gioco che ha quelle ciofeche prende certe batoste prestazionali ed è la fiera del bug.
Ma si sganciamo "aiuti tecnici" sui developers per forzare la tesselazione a 64 a ultra, utilissima!!
https://forums.geforce.com/default/topic/834905/real-reason-why-witcher-3-hairworks-reduces-fps/
Tanto GeForce ci perde il 20 % di prestazioni ma AMD una bella batosta da 35-40 %!
Tanto poi l'utenza apre due grafici "ah wow, ma nvidia è potentissima fa nmila fps in più".
Manco morto ricompro Nvidia, ma anche se a parità prestazioni/prezzo convenisse, sono una banda di truffatori belli e buoni che non avendo più concorrenza forzano la propria di utenza a cambi forzati se vuoi i dettagli al massimo.
Sia chiaro, non sto facendo una crociata anti Nvidia, sono proprio incazzato. A me piace la tecnologia, ma qua Nvidia fa come Apple con gli aggiornamenti di iOS "oops il tuo iPhone 5 con l'ultimo aggiornamento che ha aggiunto funzionalità a Siri è rallentato vistosamente, eeeeeh pazienza". Io il pc di aggiornarlo non me ne frega niente, ma uno al momento non vedo giochi che mi attirino e mi facciano cambiare pc (tanto poi gioco a Dota 2, Don't Starve, che me ne faccio?), due lo faccio se ne ho bisogno. Non perchè Nvidia decide che su TW3 mi deve andare male la scheda.
In effetti le mie 680m sono invecchiate paurosamente con i giochi gameworks.
Inoltre saranno almeno 4-5 release di drivers che sto smadonnando a livelli mosconiani...black screen, freezes ecc...
Ho su drivers dell'anno scorso...
In effetti le mie 680m sono invecchiate paurosamente con i giochi gameworks.
Inoltre saranno almeno 4-5 release di drivers che sto smadonnando a livelli mosconiani...black screen, freezes ecc...
Ho su drivers dell'anno scorso...
Ah, non parliamo delle mie tribolazioni per shadowplay che mi serve pure.
Spider-Mans
30-01-2016, 10:59
Sia chiaro, non sto facendo una crociata anti Nvidia, .
ma no stai tranquillo...giusto un pochino si nota
senti fatti un favore a te al forum e all umanita :asd:
vendi la tua vga che mi pare anche abbastanza invecchiata xD e prenditi una amd..cosi fai +1 ad amd..e vivi felice no?
ma non ti è mai sfiorato in testa l'idea che quando recensiscono nuove vga non ri-testano mai vga di gen precedenti ma si basano sui dati dell epoca ? e che nel frattempo di fiumi e driver sotto i ponti ne sono passati parecchi cosi come eventuali cambiamenti nei driver stessi che ovviamente tendono aprivilegiare le nuove archietetture?
capisco la foga di criticare nvidia ma vogliamo parlare dei tanti problemi di driver amd? basta rileggersi gli ultimi avvenimenti con crimson o come si chiamano xD
se ti piace la "rossa" ....ripeto..molto semplice..vendi la tua vga e prenditi una fury..almeno aiuterai amd con i fatti
Radeon80
30-01-2016, 11:11
Obsolescenza programmata di Nvidia?
960 che superano 780 e 780 ti che sarebbero 48 % circa più potenti e veloci (e lo sono su tutti i giochi pre maxwell fondamentalmente)?
GameWorks?
Problemi sui giochi che usano gameworks (project cars, watch dogs, arkham, ecc)?
Parliamoci chiaramente, Nvidia ha in mano il 75-80% del mercato. La loro unica concorrenza sono ormai gli stessi utenti Nvidia a cui bisogna far cambiare scheda.
Io mi incazzo a vedere 750ti che superano la mia 670 occata su tutti i giochi con zampino Nvidia.
Non esageriamo.
Tutte le tecnologie di sync, tutte, aumentano l'input lag per definizione poichè il monitor attende a rappresentare un frame finchè questi non è correttamente generato.
Quindi non è vero che non hai capito una cippa.
Comunque, piccolo parere personale, ormai è diventata un ossessione questo benedetto sync. La cosa più bella è che per il 95 % del mercato che ha monitor decenti (dall'u2312hm in su) sono problemi praticamente inesistenti a meno di fps bassi.
Non posso che quotarti.
E' brutto vedere Nvidia come rende "obsolete" tutte le schede della seria Kepler a vantaggio di Maxwell.
Non vorrei che una volta uscita tutta la serie Pascal farà altrettanto con tutta la serie 900.
ma no stai tranquillo...giusto un pochino si nota
senti fatti un favore a te al forum e all umanita :asd:
vendi la tua vga che mi pare anche abbastanza invecchiata xD e prenditi una amd..cosi fai +1 ad amd..e vivi felice no?
ma non ti è mai sfiorato in testa l'idea che quando recensiscono nuove vga non ri-testano mai vga di gen precedenti ma si basano sui dati dell epoca ? e che nel frattempo di fiumi e driver sotto i ponti ne sono passati parecchi cosi come eventuali cambiamenti nei driver stessi che ovviamente tendono aprivilegiare le nuove archietetture?
capisco la foga di criticare nvidia ma vogliamo parlare dei tanti problemi di driver amd? basta rileggersi gli ultimi avvenimenti con crimson o come si chiamano xD
se ti piace la "rossa" ....ripeto..molto semplice..vendi la tua vga e prenditi una fury..almeno aiuterai amd con i fatti
Scusa come fanno a prendere "dati dell' epoca" su giochi usciti 1 mese fa????
Inviato dal mio XT1092 utilizzando Tapatalk
mirkonorroz
30-01-2016, 13:29
Scusa come fanno a prendere "dati dell' epoca" su giochi usciti 1 mese fa????
Inviato dal mio XT1092 utilizzando Tapatalk
Perche' per esempio prendono i risultati di tomb raider 1 e poi li copiano nel grafico di rise of tomb raider :asd:
Il problema sorge quando il gioco non ha il predecessore pero' :fagiano:
Azz... ma ai tempi di TR1 non c'era l'ultima scheda...
Magari "l'intersezione" avviene piu' prossima al presente. :asd:
Seriamente... chissa' come stanno le cose realmente... io propendo per uno sviluppo dei vg architettura dipendente, e quindi sarebbero gli sviluppatori di vg i primi a discriminare le "vecchie" schede. Bisogna vedere quanto possa agire o quanta voglia abbia nvidia di agire una volta fatto il "danno".
Questo sempre che gli sviluppatori di vg programmino realmente a cosi' basso livello, altrimenti dovrebbe essere veramente tutta questione di drivers.
EDIT2 (corretta l'inversione): ... e poi probabilmente buona parte del codice sensibile e' generato direttamente dal framework di sviluppo, per un dato motore di gioco e quindi puo' essere chi sviluppa il motore a decidere...
°Phenom°
30-01-2016, 14:32
Scusa come fanno a prendere "dati dell' epoca" su giochi usciti 1 mese fa????
Inviato dal mio XT1092 utilizzando Tapatalk
:asd: :asd: :mc: :mc:
killeragosta90
30-01-2016, 15:03
Scusa come fanno a prendere "dati dell' epoca" su giochi usciti 1 mese fa????
Inviato dal mio XT1092 utilizzando Tapatalk
http://www.nerdsrevenge.it/wp-content/uploads/2014/01/Ritorno-Al-Futuro-Doc-Brown-460x250.png
Tsk!....e che ci vuole?
:p
Ragazzi ma la serie hd6000, l'ultima prima del gcn oggi come va? Non e che critichiamo nvidia e poi AMD risulta essere invecchiata meglio solo perché per quattro anni ha usato sempre la stessa architettura?
Caterpillar_WRT
31-01-2016, 11:03
Magari usassero sempre un'architettura per 4 anni ...
Io ho una HD7870 2GB e la uso ancora a 2560x1080 con rF2 ed AC, ma credo che anche i possessori di 6950/70, con qualche sacrificio, possano ancora usarle.
La longevità AMD mi permette di aspettare il prossimo pp.
La 390 è fuori badget, la 380 non mi garantirebbe cmq i 60fps min, quindi ...
Mentre che ci siamo (ot) qualcuno ha dei grafici su come gira ora la serie Fermi? perchè spero proprio non abbia perso quanto le Kepler...
Non siamo proprio ot, dobbiamo valutare l'acquisto della nuove radeon e ci serve un metro di paragone :O
:mc:
:sofico:
Mi sembra giusto :O
:)
ma non ti è mai sfiorato in testa l'idea che quando recensiscono nuove vga non ri-testano mai vga di gen precedenti ma si basano sui dati dell epoca ? e che nel frattempo di fiumi e driver sotto i ponti ne sono passati parecchi cosi come eventuali cambiamenti nei driver stessi che ovviamente tendono aprivilegiare le nuove archietetture?
Hai scritto sciocchezze di quelle belle grosse..
Vedo che siamo tutti Fermi con Polaris :O
FirstDance
02-02-2016, 12:52
Ho una HD6850 e va da dio nel suo piccolo.
Chiaro non puoi pensare di giocare a crysis3 in 4k, ma questo è ovvio.
Però posso giocare a dishonored in 2880x1800, cosa che ho provato con una R7 360 ed è esplosa :asd:
Di certo le prestazioni della famiglia 6000 non sono calate con i driver, comunque parliamo di cose un po' più in la con il tempo, no della famiglia precedente.
Poi devi sempre vedere cosa stai guardando, una r9 380 va più o meno come una r9 280 in linea di massima fino a quando non provi qualcosa che usa molto la tessellation e allora la differenza si sente.
La r7 360 rispetto alla 6850 (parlo di queste perchè lo ho avute entrambe e sono più o meno equivalenti) ha più spinta nelle nuove funzionalità, se usi un gioco in dx11 rende il 50% in più.
Ma la 6850 gestisce più pixel, in un gioco dx9 posso salire di più in risoluzione.
Pure io ho una HD6850 e mi ha dato tante soddisfazioni. Riesco a far girare decentemente anche Project Cars. Certo, non a 60fps e non al massimo, ma 30fps a livello medio li regge. Tante volte ho pensato di cambiare scheda, ma nel frattempo il tempo passa e le tecnologie migliorano. Aspetto di vedere le nuove schede e poi deciderò.
ma no stai tranquillo...giusto un pochino si nota
senti fatti un favore a te al forum e all umanita :asd:
vendi la tua vga che mi pare anche abbastanza invecchiata xD e prenditi una amd..cosi fai +1 ad amd..e vivi felice no?
ma non ti è mai sfiorato in testa l'idea che quando recensiscono nuove vga non ri-testano mai vga di gen precedenti ma si basano sui dati dell epoca ? e che nel frattempo di fiumi e driver sotto i ponti ne sono passati parecchi cosi come eventuali cambiamenti nei driver stessi che ovviamente tendono aprivilegiare le nuove archietetture?
capisco la foga di criticare nvidia ma vogliamo parlare dei tanti problemi di driver amd? basta rileggersi gli ultimi avvenimenti con crimson o come si chiamano xD
1) i miei benchmark sono su giochi rilasciati spesso molto dopo le schede video. Quindi non ha senso ciò che mi dici. Anche visto e sottolineato che ho tirato fuori benchnmark che sottolineano che a qualche anno dalla release schede nvidia lanciate molto più potenti fanno la metà degli fps della controparte amd.
2) come spendo i miei soldi sono affare mio. La mia 670 sarà vecchiotta, ma è assolutamente adeguata per giocare a qualsiasi cosa a 1080p/60 fps. Non è che mi vado a comprare la 980ti perchè a 1080p su gta 5 devo tirare giù l'msaa o abbassare la tesselation, mentre tutto il resto rimane high/very high che quando giochi manco le noti ste cose.
Ah rimpiango i tempi quando da un anno all'altro c'erano abbissi fra la grafica nei giochi e c'erano abbissi nei settings. Ora porti TW3 da massimo a medio e fai fatica a vedere differenze. Ormai dai tempi di Crysis (1) qua cerchiamo di trovare il pelo nell'uovo per cambiare schede video (eh ma qui la tesselazione dell'aliasing a 128x in virgola mobile è ben visibile nel pixel 1089x216 al millisecondo 11.789 quindi dovresti passare ad uno sli di titan x).
E da consumatore che compra gpu da 15 anni Nvidia non la compro per un bel po perchè è un azienda che va contro i suoi consumatori.
1) i miei benchmark sono su giochi rilasciati spesso molto dopo le schede video. Quindi non ha senso ciò che mi dici. Anche visto e sottolineato che ho tirato fuori benchnmark che sottolineano che a qualche anno dalla release schede nvidia lanciate molto più potenti fanno la metà degli fps della controparte amd.
2) come spendo i miei soldi sono affare mio. La mia 670 sarà vecchiotta, ma è assolutamente adeguata per giocare a qualsiasi cosa a 1080p/60 fps. Non è che mi vado a comprare la 980ti perchè a 1080p su gta 5 devo tirare giù l'msaa o abbassare la tesselation, mentre tutto il resto rimane high/very high che quando giochi manco le noti ste cose.
Ah rimpiango i tempi quando da un anno all'altro c'erano abbissi fra la grafica nei giochi e c'erano abbissi nei settings. Ora porti TW3 da massimo a medio e fai fatica a vedere differenze. Ormai dai tempi di Crysis (1) qua cerchiamo di trovare il pelo nell'uovo per cambiare schede video (eh ma qui la tesselazione dell'aliasing a 128x in virgola mobile è ben visibile nel pixel 1089x216 al millisecondo 11.789 quindi dovresti passare ad uno sli di titan x).
E da consumatore che compra gpu da 15 anni Nvidia non la compro per un bel po perchè è un azienda che va contro i suoi consumatori.
E penso di non dire una castroneria se crysis 1 moddato al max rimane uno dei giochi più belli di sempre da vedere..
E penso di non dire una castroneria se crysis 1 moddato al max rimane uno dei giochi più belli di sempre da vedere..
No infatti.
Domandona, in linea di massima secondo voi quando potremmo aspettarci le prossime schede di fascia mainstream della AMD, per intenderci l'equivalente delle 380/380x?
Francamente sto cominciando ad andare davvero stretto con questa 7850 da 1GB (mea culpa, potevo prendere la 2GB e a quest'ora magari mi durava un altro annetto), quindi meditavo di prendere qualcosa tipo una GTX 960 o una R9 380. Al momento propenderei per la Nvidia per via dei consumi, però se le prossime schede AMD da 16nm non sono lontane, posso aspettare ancora qualche mese e vedere cosa ne esce fuori, che probabilmente consumerà molto meno. Da ciò che ho letto il mese scorso, sembra che le Polaris inizieranno proprio con la fascia bassa/media.
Io gioco a 768p (aiuto :asd:), e siccome favorisco i monitor piccoli, se anche lo cambiassi in futuro sicuramente non andrei oltre i 1080p per alcuni anni. Una scheda di fascia alta mi pare davvero sprecata. E dalle voci mi pare di capire che dalla Nvidia non avremo schede da 16nm di fascia media prima dell'anno prossimo.
Posso sperare tempi più veloci dalla AMD, oppure è meglio che lascio stare e prendo una scheda adesso?
Ti pigli una 380 2gb o una 7950 usata a due euro e aspetti con calma che si presenti la line up amd a 16nm, oppure se puoi resistere aspetta fino a maggio
Ti pigli una 380 2gb o una 7950 usata a due euro e aspetti con calma che si presenti la line up amd a 16nm, oppure se puoi resistere aspetta fino a maggio
Maggio/giugno è appunto il mio limite d'attesa, visto che esce Doom. Fino ad allora non c'è molto che mi interessi, quindi non ho problemi ad aspettare. Ma già dopo giugno sarebbe andare troppo oltre per me.
L'altro punto è che se cambio scheda video, almeno altri due annetti me la voglio far durare (sta 7850 mi sarà durata tre anni in fondo), quindi niente scelte affrettate :O
Comunque non pensare di non spendere meno di 200-250 euro con le prime polaris...
OEidolon
06-02-2016, 15:46
Comunque non pensare di non spendere meno di 200-250 euro con le prime polaris...
ho come la sensazione che saranno più vicine ai 300euro piuttosto che ai 200 :asd:
Spendere fino a 250 euro mi sta bene, supponendo che ci siano vantaggi tangibili rispetto alla R9 380 (che la low profile si trova a 190 euro... ci penserei, non fosse per i 2GB che mi sembrano limitanti per il futuro nel caso passi a 1080p).
Però non vorrei che se la prendessero comoda a tirarla fuori. Oltre 4-5 mesi davvero non vado. Se non ci sono notizie concrete a quel punto mi arrendo.
Considerando anche che con il doppio salto del pp, con le stesse prestazioni ci sarà un notevole calo di consumi e calore
Spendere fino a 250 euro mi sta bene, supponendo che ci siano vantaggi tangibili rispetto alla R9 380 (che la low profile si trova a 190 euro... ci penserei, non fosse per i 2GB che mi sembrano limitanti per il futuro nel caso passi a 1080p).
Però non vorrei che se la prendessero comoda a tirarla fuori. Oltre 4-5 mesi davvero non vado. Se non ci sono notizie concrete a quel punto mi arrendo.
punta ai 4gb e sei tranquillo per il periodo che la vuoi tenere tu, 2gb in caso di nuovo acquisto non ha senso, 8gb sarebbe perfetto ma credo sia per chi punta ai 4k
anch'io ho i due pc che hanno entrambi 2gb e vorrei sostituire la 270x con qualcosa di performante che stia bene nel piccolo case dell'X51
sgrinfia
06-02-2016, 18:52
Domandona, in linea di massima secondo voi quando potremmo aspettarci le prossime schede di fascia mainstream della AMD, per intenderci l'equivalente delle 380/380x?
Francamente sto cominciando ad andare davvero stretto con questa 7850 da 1GB (mea culpa, potevo prendere la 2GB e a quest'ora magari mi durava un altro annetto), quindi meditavo di prendere qualcosa tipo una GTX 960 o una R9 380. Al momento propenderei per la Nvidia per via dei consumi, però se le prossime schede AMD da 16nm non sono lontane, posso aspettare ancora qualche mese e vedere cosa ne esce fuori, che probabilmente consumerà molto meno. Da ciò che ho letto il mese scorso, sembra che le Polaris inizieranno proprio con la fascia bassa/media.
Io gioco a 768p (aiuto :asd:), e siccome favorisco i monitor piccoli, se anche lo cambiassi in futuro sicuramente non andrei oltre i 1080p per alcuni anni. Una scheda di fascia alta mi pare davvero sprecata. E dalle voci mi pare di capire che dalla Nvidia non avremo schede da 16nm di fascia media prima dell'anno prossimo.
Posso sperare tempi più veloci dalla AMD, oppure è meglio che lascio stare e prendo una scheda adesso?
Se proprio urge ,prediti una scheda usata come consigliato da FroZen.
Io ho fatto cosi........una bella scheda usata 7950 3Gb e aspetti le nuove;)
Se proprio urge ,prediti una scheda usata come consigliato da FroZen.
Io ho fatto cosi........una bella scheda usata 7950 3Gb e aspetti le nuove;)
Eh, ma una volta che cambio scheda video, voglio tenermela per un bel po'. Non mi va di fare un semplice passaggio intermedio.
Penso la cosa migliore da fare sia aspettare, per ora non trovo un'alternativa che mi soddisfi. Le 380 consumano davvero troppo per i miei gusti, le GTX 960 non sono così performanti quanto vorrei per il loro prezzo, e le 970 costano un po' troppo.
Forse con le Polaris si risolve la situazione, sempre che non trovi una buona offerta nel frattempo. Per dire una 380 a non più di 160 euro e ci farei un pensierino, anche fosse da 2GB... anche se purtroppo sono anche limitato dalla dimensione del case (la mia attuale è 23cm e ci entra di pochissimo).
deadbeef
06-02-2016, 20:14
compra una bella 290x usata :fiufiu: che in 1080p altri 2-3 anni li regge senza patemi, io farò il salto solo se ci sarà una scheda per giocare in 4k@60fps senza troppi compromessi, così aggiorno vga e tv
ho come la sensazione che saranno più vicine ai 300euro piuttosto che ai 200 :asd:
E io ho come la sensazione che con 200 euro si prenderà una bomba rispetto alle R9 380 di oggi.
OEidolon
07-02-2016, 09:09
E io ho come la sensazione che con 200 euro si prenderà una bomba rispetto alle R9 380 di oggi.
beh lo speriamo tutti :fagiano:
HadesSaint
07-02-2016, 09:23
Edit
compra una bella 290x usata :fiufiu: che in 1080p altri 2-3 anni li regge senza patemi, io farò il salto solo se ci sarà una scheda per giocare in 4k@60fps senza troppi compromessi, così aggiorno vga e tv
Una 290x? Mah, forse piegandola in due riuscirei a farla entrare nel case :asd:
AMD Polaris: la top di gamma potrebbe costare 1700$ | rumor
http://hardware.hdblog.it/2016/02/08/AMD-Polaris-prezzo-1700-dollari/
.
mikael84
08-02-2016, 14:00
AMD Polaris: la top di gamma potrebbe costare 1700$ | rumor
http://hardware.hdblog.it/2016/02/08/AMD-Polaris-prezzo-1700-dollari/
.
E' un valore ipotetico di una dual gpu e da prendere con le pinze. Le schede sono ora in India per i test
http://www.3dcenter.org/news/ein-weiteres-lebenszeichen-von-amds-polaris-generation-mit-einer-1500-euro-karte.
AMD ci sta lavorando e tecnicamente è pronta visto che è già in test, i prezzi ancora non mi convincono ma la tendenza a salire ormai è ovvia.
Le schede che debutteranno saranno quelle di fascia alta contro le Nvidia GP104. La fascia enthusiast è prevista per il 2017
Le schede che debutteranno saranno quelle di fascia alta contro le Nvidia GP104. La fascia enthusiast è prevista per il 2017
Ciao scusa potresti spiegarti meglio? Io stavo aspettando Polaris per cambiare la mia r9 270x siccome sapevo che dovrebbe debuttare verso giugno, ma se escono solo le top di gamma e devo aspettare il 2017 per una fascia media allora mi compro una 380x e fine della storia...
speriamo che amd non segua il trend dell'aumento prezzi attuato da nvidia, sennò mi toccherà davvero comprare una PS4 :asd:
Beh sai fino a un certo punto possono tirare la corda. Se ipotizzo, una 470 andrà come una 380, ma allo stesso tempo verrà venduta a 200€ chi se la compra? Sicuramente chi ha una 380/285/7970 salta a pie pari
Stessa roba per Nvidia. Si che gimperà Maxwell via driver per far apparire Pascal mostruoso, se continuiamo di questo passo. Pero è anche vero che non tutti sono stupidi e boccaloni e sanno farsi i conti in tasca
mikael84
08-02-2016, 19:51
Ciao scusa potresti spiegarti meglio? Io stavo aspettando Polaris per cambiare la mia r9 270x siccome sapevo che dovrebbe debuttare verso giugno, ma se escono solo le top di gamma e devo aspettare il 2017 per una fascia media allora mi compro una 380x e fine della storia...
In effetti pure io vorrei capire sta cosa.
Con fascia alta intendevo quella fascia che sostituirà le 290/390(x) e 970-980 per Nvidia mentre la fascia enthusiast (fury-980ti) potrebbe debuttare solo nel 2017.
La fascia performance dovrebbe uscire quest'anno sia per AMD che per Nvidia;)
Con fascia alta intendevo quella fascia che sostituirà le 290/390(x) e 970-980 per Nvidia mentre la fascia enthusiast (fury-980ti) potrebbe debuttare solo nel 2017.
La fascia performance dovrebbe uscire quest'anno sia per AMD che per Nvidia;)
Ah ok così è più chiaro grazie, pensavo che la fascia enthusiast fosse quella media invece è quella riservata ai portafogli gonfi :asd:
Quindi ci sono speranze di vedere una Polaris da 200/250€ prima dell'estate...? Incrocio le dita
mikael84
08-02-2016, 21:50
Ah ok così è più chiaro grazie, pensavo che la fascia enthusiast fosse quella media invece è quella riservata ai portafogli gonfi :asd:
Quindi ci sono speranze di vedere una Polaris da 200/250€ prima dell'estate...? Incrocio le dita
Massimo settembre dovrebbero uscire tutte e proprio in questa fascia ci sarà sicuramente un buon aumento delle prestazioni. Su un core di 200mm2 si parla di 2048-2560 shader, più un bel boost sul clock dovuto al cambio NM. Per fare un'esempio, con un clock di 1400 su 2560shader +FMA(2) ottieni 7,1tf, circa la stessa potenza di calcolo a livello di shader di una fury pro;)
Massimo settembre dovrebbero uscire tutte e proprio in questa fascia ci sarà sicuramente un buon aumento delle prestazioni. Su un core di 200mm2 si parla di 2048-2560 shader, più un bel boost sul clock dovuto al cambio NM. Per fare un'esempio, con un clock di 1400 su 2560shader +FMA(2) ottieni 7,1tf, circa la stessa potenza di calcolo a livello di shader di una fury pro;)
E vabbè dai, facciamo che aspetto queste Polaris, almeno sarò sicuro di non perdermi nulla nel caso :O
Spero che una roba con prestazioni ben superiori ad una 380x si possa avere per 250 euro massimo, e possibilmente con consumi all'altezza.
figurati, c'è gente che si chiede se cambiare vga con una di pari livello solo perché consumerebbe meno :asd:
così da rientrare nella spesa delle gpu nuova nel 2037... :doh:
Si, per poi ritrovarsi con una 770 da 300€ che va meno di una 7970 da 300€ (due anni prima) dopo 1 anno. :muro:
https://a.disquscdn.com/uploads/mediaembed/images/3154/8682/original.jpg
P.s. Notare dove sta la Titan :sofico:
Caterpillar_WRT
09-02-2016, 17:09
Non so qanto fare affidamento su un test che usa un game in beta ...
Secondo me la fascia alta uscirà con prezzi di poco superiori alla 970 che commercialmente è la scheda da battere, per poi scendere man mano che nvidia sarà abbasserà il prezzo delle 970 per renderla competitiva.
Sempre che nvidia non presenti qualcosa in contemporanea.
Si, per poi ritrovarsi con una 770 da 300€ che va meno di una 7970 da 300€ (due anni prima) dopo 1 anno. :muro:
https://a.disquscdn.com/uploads/mediaembed/images/3154/8682/original.jpg
P.s. Notare dove sta la Titan :sofico:
E notare la 280x (7970Ghz) rispetto a 780/780ti/Titan! :sofico:
Come per Fallout 4, insomma... :asd:
mikael84
09-02-2016, 17:34
Si, per poi ritrovarsi con una 770 da 300€ che va meno di una 7970 da 300€ (due anni prima) dopo 1 anno. :muro:
P.s. Notare dove sta la Titan :sofico:
Ma è tutto da vedere:)
Bisogna vedere le impostazioni utilizzate, prendendo il setting ultra la 780ti dovrebbe andare quanto una 280x e sinceramente non mi sembra
780ti
https://www.youtube.com/watch?v=K8k4UhAaows
r9 280x
https://www.youtube.com/watch?v=LNq-RudwyDA
gtx 770
https://www.youtube.com/watch?v=eUDEdKzw0Lg
LurenZ87
09-02-2016, 18:27
Si, per poi ritrovarsi con una 770 da 300€ che va meno di una 7970 da 300€ (due anni prima) dopo 1 anno. :muro:
P.s. Notare dove sta la Titan :sofico:
tralasciando che è una beta, non sò se è più triste vedere schede top di gamma superare di poco i 60fps in Full HD o il totale abbandono da parte di Nvidia delle schede con architettura Kepler...
...e pensare che stavo per prendere una 770 sul muletto :stordita:
LurenZ87
09-02-2016, 20:13
In realtà dovrebbero cominciare a fare dei bench in modi più sensati.
Ok bench simili servono a capire chi "va più forte", ma questo fondamentalmente non serve a nulla se non a far parlare i fanboy.
Leggendo questi bench sembrerebbe che per giocare in full HD su un monitor 144hz serva come minimo un xfire di fury x, invece scommetto che se si abbassano 2-3 settaggi una 390x va alla grande e una 380x tiene abbondanti i 60 fps.
Chi deve scegliere che scheda comprare con sti benchmark può pulirsi il sedere, sarebbero più utili bench al contrario per esempio in full HD per ogni scheda a cosa devo rinunciare per tenere i 60 fps o cose del genere.
Vero, secondo i test del 99% dei siti internet dovrei bestemmiare aramaico antico per giocare in 4k con una singola scheda, eppure...
Inviato dal mio Samsung Galaxy S6 utilizzando Tapatalk
Vero, secondo i test del 99% dei siti internet dovrei bestemmiare aramaico antico per giocare in 4k con una singola scheda, eppure...
Inviato dal mio Samsung Galaxy S6 utilizzando Tapatalk
Nessuno mi crede quando dico le cose :O
Lo stesso vale per lisa porn su... Siamo due #incomprensibili
Comunque figo, quel test sì e l'altro no, un po' come gira, e se gira al proprio mulino... Cento cento cento!!! :asd:
... Cento cento cento!!! :asd:
:asd:
http://3.bp.blogspot.com/_pRONqxnVzRw/Sd4JjlXkXAI/AAAAAAAAAX0/HnIo9_XKPFI/s1600/ok+prezzo+100.jpg
http://i50.tinypic.com/53sd9t.jpghttp://i50.tinypic.com/53sd9t.jpghttp://i50.tinypic.com/53sd9t.jpg
http://cdn.meme.am/instances/500x/52753543.jpg
Un vero uomo la vodka se la prende
http://www.infugadallabocciofila.it/wp-content/uploads/2015/04/redheat_us3-700x393.jpg
killeragosta90
09-02-2016, 22:54
Un vero uomo la vodka se la prende
DOVE?!?? :eek:
Ah!....ok......era finita lì la frase.... :asd:
sgrinfia
10-02-2016, 09:10
http://cdn.meme.am/instances/500x/52753543.jpg
Grande Uomo , averceli persone che amano la propria gente come lui.
Si, per poi ritrovarsi con una 770 da 300€ che va meno di una 7970 da 300€ (due anni prima) dopo 1 anno. :muro:
https://a.disquscdn.com/uploads/mediaembed/images/3154/8682/original.jpg
P.s. Notare dove sta la Titan :sofico:
Ma quale è il sito che posta questi bench non lo trovo... :confused: .
Ma quale è il sito che posta questi bench non lo trovo... :confused: .
Gamegpu.ru
Si, per poi ritrovarsi con una 770 da 300€ che va meno di una 7970 da 300€ (due anni prima) dopo 1 anno. :muro:
https://a.disquscdn.com/uploads/mediaembed/images/3154/8682/original.jpg
P.s. Notare dove sta la Titan :sofico:
eeeeeeeeeeh ma Nvidia :asd:
gameworks :asd:
Io da sviluppatore Unreal Engine ho problemi etici anche solo ad usare Apex Cloth ormai...
deadbeef
11-02-2016, 15:02
Comunque ragazzi, prestazioni a parte, sto notando una cosa che per me pesa nella scelta tra AMD ed NVIDIA: vedo gente che compra 980/970 usate pagandole poco meno di quanto costavano al lancio, mentre le radeon vengono percepite come prodotti di fascia 'bassa' e sono quasi impossibili da rivendere se non perdendoci quasi la metà. Chapeau ad Nvidia che è riuscita a diventare la Apple delle vga nella mente dei consumatori.
adesso non esageriamo..... Fra aumento dollaro etc i prezzi del nuovo sono rimasti quelli nonostante siano vga ormai "vecchie" e la regola del forum è nuovo - iva come minimo.... Poi sta all'utente valutare...
tecnoman
13-02-2016, 18:59
Secondo voi una scheda polaris da 150 Euro che prestazioni potrebbe avere? :sbav:
Free Gordon
13-02-2016, 19:08
Secondo voi una scheda polaris da 150 Euro che prestazioni potrebbe avere? :sbav:
Se tutto và bene, le prestazioni di una R9 285...
LurenZ87
13-02-2016, 19:21
Secondo voi una scheda polaris da 150 Euro che prestazioni potrebbe avere? :sbav:
dipende da quello che intendono far uscire...
Nanotubo
18-02-2016, 10:29
Le schede polaris in uscita a giugno / settembre, si sa in che fascia di prezzo si posizione ranno? Sono interessato alla fascia di prezzo 200/270 €, sperando che avranno le prestazioni di una 390/390x.
La mia 5850 soffoca con gli ultimi giochi :D
Le schede polaris in uscita a giugno / settembre, si sa in che fascia di prezzo si posizione ranno? Sono interessato alla fascia di prezzo 200/270 €, sperando che avranno le prestazioni di una 390/390x.
La mia 5850 soffoca con gli ultimi giochi :D
Ci son già le 290/390 sugli scaffali a 300 circa da 2 anni...
Onestamente mi aspetterei prestazioni da 390x sotto i 250 euro almeno.
Il salto prestazionale tra 570 e 670 era abbastanza deciso..idem fra 770 e 970..a parità di fascia di prezzo..
Insomma se si presentano con prestazioni da 390 sopra i 250 cosa è cambiato? :dunno:
E no, i consumi non bastano, a meno che le schede risultino overclockabili a dismisura.
Secondo voi una scheda polaris da 150 Euro che prestazioni potrebbe avere? :sbav:
Ridicole?!... :stordita:
Pare che la prima Polaris in uscita sia da 234mm2. Un ingegnere ha infarcito troppo il curriculum linkedin :asd: .
Si ipotizzano performance simili alla 290/390.
se non hanno fatto vaccate anche ai livelli della Fury liscia ;)
me ne sto quasi convincendo dopo un confronto, ma in effetti i 14nm samsung hanno uno scaling del 2.13x rispetto i 28nm tsmc e ciò vuol dire che matematicamente 234mmq corrispondono a 498mmq, Fiji XT ne conta ~600 ma fiji liscia ha la stessa superficie ma con 500 sp meno...
raja ha dichiarato che la stella polare oggi è 2.5 volte più luminosa rispetto a 2000 e qualcosa anni fa...
sulla carta i conti tornano, il pp più del doppio come salto legato all'incremento di gcn 4 potrebbero portare a questi livelli di prestazioni, almeno da fury liscia!
Può anche essere, dato che fiji è bilanciato da schifo con colli di bottiglia ovunque.
Il confronto dei mm2 tra due architetture diverse non ci dice poi molto.
Polaris ha risolto il problema del culling delle primitive, inoltre il maggiore IPC presunto (CU), risolve in parte l'eccesso di TMU rispetto alle ROP. Per il resto dobbiamo aspettare nuovi dettagli.
per IPC intendo a parità di CU e non con aumento di CU, quello equivale all'aumento dei Core ;)
a parità di SP ci dovrebbe essere un aumento di performance, come accaduto con le precedenti e speriamo ad un aumento di clock...
Si certo, parliamo entrambi di più performance per ALU;) .
Sul clock sono dubbioso, amd ha delle alu molto complesse che fanno da LoadStore/SFU, il tutto infarcito da tonnellate di registri e cache. Se hanno aumentato IPC dubito che sia una scheggia in termini di clock.
Nvdia se consideri anche le unità specializzate LD/SFU ha un IPC molto inferiore a GCN, ma compensa con le pipeline lunghe. (in overclock supera il 30-40% con le stesso voltaggio)
Ma la data di Polaris?
Credo ben poco a una release prima di giugno, vista l'assoluta mancanza di leak in giro che di solito si dovrebbero già vedere.
Ridicole?!... :stordita:
Dipende dalla risoluzione.
Oggigiorno tra i 150 e i 200 euro hai la 380 che è una signora scheda per giocare a 1080p.
Onestamente se avremo una scheda da prestazioni simili alla 380x a 200 euro o meno (con tanto di consumi molto ridotti) a me sembra un acquisto della madonna finchè sei fermo a 1080p.
Considerando che una 380x fa sui 55 fps su The Witcher 3 a 1080p con tutto maxato, 85 su GTA 5 (FXAA), 55 a Crysis 3 e 65 a Battlefront maxato penso ci sarebbe ben poco da lamentarsi.
Nanotubo
18-02-2016, 18:14
Pare che la prima Polaris in uscita sia da 234mm2. Un ingegnere ha infarcito troppo il curriculum linkedin :asd: .
Si ipotizzano performance simili alla 290/390.
La mia futura scheda :fagiano:
200 € pronti sul bancone :D
Secondo voi una scheda polaris da 150 Euro che prestazioni potrebbe avere? :sbav:
prestazioni degne di questo nome.. tali da far immedesimare chi la compra con il proprio pc.
Ma quindi è vero che ci sarà un incremento del 100% a parità di fascia o sono solo dicerie? Non c'è il rischio di essere cpu limited (lo dico per quelli che dai tempi di sandy bridge sostengono di essere cpu limited, quando le prestazioni delle cpu consumer da allora sono aumentate di solo il 20% forse e delle vga credo di un buon 70%)?
°Phenom°
18-02-2016, 19:15
prestazioni degne di questo nome.. tali da far immedesimare chi la compra con il proprio pc.
Ma quindi è vero che ci sarà un incremento del 100% a parità di fascia o sono solo dicerie? Non c'è il rischio di essere cpu limited (lo dico per quelli che dai tempi di sandy bridge sostengono di essere cpu limited, quando le prestazioni delle cpu consumer da allora sono aumentate di solo il 20% forse e delle vga credo di un buon 70%)?
Dx12/Vulkan sono qui per questo ;)
Inviato dal mio SM-G920F utilizzando Tapatalk
Io dire per lo meno 100.
Non lo si è avuto con il passaggio 40nm 28nm non me lo aspetto nemmeno stavolta....forse i big bamboo 2017 si avvicineranno al 100
Raven......machettelodicoaffare
Raven......machettelodicoaffare
Duly noted! :O
Era una battuta, 100 che cosa? Banane? :asd:
http://www.mememaker.net/static/images/memes/2898108.jpg
:O
deadbeef
18-02-2016, 23:20
Ahimè, è un discorso che andrebbe visto dal lato del business: non converrebbe a nessuno far uscire schede che a 1/2 del prezzo vanno 1 rispetto alla gen precedente. L'esempio riportato da Frozen relativo al passaggio dai 40 ai 28nm va letto anche con questa chiave. Quando i pp saranno maturi e le prev-gen oramai un lontano ricordo, allora tireranno fuori i chipponi al pieno del loro potenziale, ma a cifre comunque in linea con le attuali top di gamma. Per le fasce intermedie il discorso perderà di senso perchè comunque nel frattanto saranno aumentati i requisiti degli engine grafici
Non lo si è avuto con il passaggio 40nm 28nm non me lo aspetto nemmeno stavolta....forse i big bamboo 2017 si avvicineranno al 100
Raven......machettelodicoaffare
40->28 non è 40->20.
tecnoman
19-02-2016, 04:58
Ridicole?!... :stordita:
Eh no! qui non si parla piu' di rebrand ::o:
40 20 diventa un quarto di area transistor
28nm su 14 uguale ma il 14 mi pare non sia planare e quindi non pienamente confrontabile...ma i pp mi appassionano come una conferenza di proctologi
Si il finfet dovrebbe aiutare a ridurre il leakage e ci sta la densità record dei chip amd non può che solo fare bene...a liquido daranno un sacco di soddisfazioni per gli ocer imho
Comunque siamo molto vicini ai limiti dei processi produttivi.
Non so come si possa scendere sotto i 7nm non credo nemmeno esistano laser con una luce di banda anche solo paragonabile :asd:
Ci avviciniamo all'era realmente multi cpu e gpu, e lì mi faccio due risate :asd:
per TSMC e Samsung equivale a metà area perché anche se si chiamano 14 e 16nm lo scaling non è perfettamente identico a quello Intel :read:
http://oi62.tinypic.com/29m6qdw.jpg
comunque anche se sarà solo un 2x(2.07~2.13x) rispetto i vecchi 28nm l'introduzione del finfet dovrebbe giocare a favore dei 14/16, per lo meno in frequenze superiori a parità di TDP oltre che all'integrazione doppia di transistors.
Lo scaling del 50% (2x come lo chiami tu) riguarda le SRAM non la logica.
Al massimo parliamo di un 65% (logic-SRAM) sul medesimo progetto.
dado1979
19-02-2016, 15:49
Sempre sputi di frame per secondo in più comunque (e in alcuni titoli la fury x passa anche le custom 980ti), dai la differenza la fa gameworks :sofico:
Non scherziamo... le 980 Ti custom vanno non poco di più della Fury X.
come fai a saperlo? e comunque 65% equivale a 1.54x
Articoli letti in giro(de vries). I valori teorici ideali di un fattore 0.5 si riferisco alla sram(senza interconnessioni)per un salto di nodo produttivo. La logica di solito scala di uno 0.7.
e quando il salto è doppio (quasi) come in questo caso?
Il 14nm di samsung ha il Beol in comune con il 20nm, quindi la densità non scala come fossero due nodi.
Fai un confronto tra valori delle sram test di tutti i nodi. E' l'unica base di partenza per fare un confronto, dato che tutti i processi sono diversi per interconnessioni e lunghezza del gate pitch.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.