|
|
|
![]() |
|
Strumenti |
![]() |
#41 |
Member
Iscritto dal: Jan 2010
Messaggi: 217
|
l'integrazione di una GPU nella CPU è forse la prima vera evoluzione in ambito X86 degli ultimi 10 anni. Ora dobbiamo solo sperare che il software si adegui di conseguenza. Le premesse ci sono tutte.
|
![]() |
![]() |
![]() |
#42 |
Senior Member
Iscritto dal: Mar 2009
Messaggi: 570
|
No, chiariamo...un unico chip riduce di molto i consumi e di certo, un solo dissipatore invece di 2, da che mondo e mondo, conviene. Oltretutto, l'hai detto anche te...Congo integra una 3200...basta ed avanza, ma se un prodotto offre di più anche con vantaggi per quanto riguarda dimensioni e consumi, perchè non dovrebberlo lanciarlo? oltretutto, non si parla di vantaggi da poco per un netbook, notebook o quant'altro...
|
![]() |
![]() |
![]() |
#43 |
Senior Member
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
|
In quel caso il problema è il calore prodotto.
Avere due fornetti a dieci centimentri significa poterli raffreddare singolarmente, quindi puoi usare due dissipatori ed un sistema meno "spinto". Avere due fornetti unificati significa dover raffreddare in un unica passata, significa più calore a parità di superficie di dissipazione. Quanto all'unico chip (SOC ?) ne riparliamo quando oltre all'elaborazione stream dei flussi nella CPU metti pure tutto il resto dei componenti che in genere si trova nel bridge. In ultimo 320 stream processor consumano, scaldano ed occupano lo stesso die size sia sul bridge che sulla CPU.
__________________
A casa ho almeno sette PC, in firma non ci stanno
Ultima modifica di ConteZero : 11-06-2010 alle 15:26. |
![]() |
![]() |
![]() |
#44 |
Senior Member
Iscritto dal: Mar 2009
Messaggi: 570
|
Come se avessero semplicemente portato i 320 stream processor all'interno della cpu -.-" il calore prodotto è legatissimo ai consumi, se io ho un chip che mettiamo caso, consuma 25W ed uno che ne consuma 30W, ho più calore di un singolo chip con consumo pari a 40W...senza considerare le varie ottimizzazioni per risparmio energetico ed altro, che sicuramente, saranno implementate in Fusion...Al momento, comunque, CPU e GPU sono affiancate ma è diverso dal sistema adottato da intel con la serie Core...Fusion 2, sarà un unico chip in grado di fare le due cose, con consumi e calore ovviamente ridotti...
|
![]() |
![]() |
![]() |
#45 | |
Senior Member
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
|
Quote:
Anzi, nella CPU dovendo avere a che fare con il calore prodotto dalla CPU stessa probabilmente consumeranno (e scalderano) di più (perché bisognerà voltarli un po'più sù per tenerli stabili a temperature più alte). Ed "impilando" core "grafici" e CPU nello stesso chip il calore generato "nel punto" sarà notevolmente superiore, e difficile da dissipare. E non ci vuole molto a capire che se c'è più roba che lavora (as in quad core vs dual core a pari processo produttivo) c'è più roba che scalda, quindi più calore e quindi più rogne per la dissipazione.
__________________
A casa ho almeno sette PC, in firma non ci stanno
Ultima modifica di ConteZero : 11-06-2010 alle 15:39. |
|
![]() |
![]() |
![]() |
#46 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14736
|
@ConteZero (#35)
Ma quella che devi porti è proprio la domanda contraria: "Se la GPU svolge tanto bene compiti "da CPU", ossia general purpose, perchè continuare a sviluppare CPU che arrancano dove la GPU va tanto bene e non integrare una GPU dentro la CPU?" In questo modo avremo a disposizione un'unità equilibrata, capace di essere forte da ogni punto di vista. Quando il software sarà davvero adeguato si potrà fare a meno di elementi CPU che verranno surclassati da quelli GPU, con notevole risparmio di spazio e calore. Fino ad allora avremo comunque vantaggi notevoli: hardware semplificato (controller e cache condivise), maggiore integrazione (riduzione di latenze e costi per hardware accessori), minori consumi, accesso anche per la parte GPU alle tecnologie produttive più avanzate usate per la GPU (il SOI, nel caso di AMD, e anche il processo più fine rispetto a quelle generalmente più economico solitamente usato per i chipset), e soprattutto non rimane silicio sprecato perchè fa le veci della scheda video integrata che siamo abituati a vedere nei chipset e ha già di suo motivi di utilizzo nel panorama attuale, senza che ancora il concetto di fusion sia perfettamente operativo. Insomma, ci sono tutti i motivi per portare avanti questo progetto. |
![]() |
![]() |
![]() |
#47 |
Senior Member
Iscritto dal: Mar 2009
Messaggi: 570
|
MAH! Se si parla di consumi COMPLESSIVI ridotti e non di poco, vuol dire che la CPU consuma meno e riscalda conseguentemente meno e che la GPU fa la stessa cosa...ergo, una soluzione Fusion consuma e riscalda di meno in ambiti d'uso normali ò_ò non è che sommi le temperature e scaldano di più >_< se prima una cpu consumava 40W riscaldando, buttandola li, sui 50° ed una GPU invece, consumava 70W riscaldando fino a 40°, ed ora il consumo complessivo è di facciamo caso, 50W, significa che le due componenti al suo interno, consumano di meno e riscaldano conseguentemente di meno e quindi, anche l'intero chip... CPU + GPU nel primo caso, consumerebbero 40+70 W mentre nel secondo, solo 50W...il calore prodotto sarebbe quindi minore in Fusion rispetto a quello presente nella normale accoppiata...sbaglio? >_<
|
![]() |
![]() |
![]() |
#48 | ||
Senior Member
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
|
Quote:
![]() Quote:
Se "si parla" posso parlarti pure degli alieni, difatto 320 stream processor scaldano come 320 stream processor, ed integrarli sulla CPU non li fa scaldare più o meno di integrarli nel NB. Il punto è che sul NB a scaldare ci sono quasi esclusivamente loro, e quindi il calore generato è poco e basta poco per disperderlo, sulla CPU invece il calore "si somma" (non algebricamente sui gradi, ma si somma comunque) a quello prodotto dalla CPU, e questo complica di molto la dissipazione. Al di fuori di questo chi giocava con l'overclock tempo addietro ricorda che bisognava aumentare la tensione passata ai componenti per mantenerli stabili all'aumentare della temperatura, e questo è un effetto collaterale tipico che probabilmente vedremo quando si andrà a ficcare un fornetto da 320 stream processor nel giardino di casa di una CPU...
__________________
A casa ho almeno sette PC, in firma non ci stanno
Ultima modifica di ConteZero : 11-06-2010 alle 16:13. |
||
![]() |
![]() |
![]() |
#49 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14736
|
@ConteZero
Risposta equilibrata eh? ![]() Non so se hai dato un'occhiata all'architettura Bulldozer, il poco che se ne sa per lo meno: per ogni unità in virgola mobile ci saranno due unità intere. AMD sta già percorrendo questa strada. Quando il software sarà adeguato, magari con l'annunciato Fusion II nel 2015, AMD farà scelte ancora più forti in questa direzione. Pensi davvero sia una cosa tanto assurda? ![]() |
![]() |
![]() |
![]() |
#50 | |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14736
|
(perdonate il doppio post, dalle news non si puà editare)
Quote:
Non solo: il PCB della scheda video consuma, e non c'è. Due controller di memoria consumano, e ce n'è solo uno. Il pciE consuma anche lui. La cache condivisa potrebbe anch'essa aiutare in questo senso. E che consumi meno non lo dico io, lo dicono i risultati: senza cambiare architettura AMD ha ottenuto, almeno a quanto dichiarato, risultati davvero insperati. |
|
![]() |
![]() |
![]() |
#51 |
Senior Member
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
|
Se vogliono fare nuove e più avveneristiche architetture (non solo CPU, architetture proprio) si accomodino, gli x86/x64 sono fatti in un certo modo e perché gli giri sopra la solita roba (Windows in primis) è necessario che funzionino in un certo modo (tipo su CPU general purpose con un set d'istruzioni che già ora è lungo una quaresima).
Magari è anche carino immaginarsi un altro set d'istruzioni addizionali, il 3DForeverAfter, ma checché se ne sappia per ora non c'è nulla di questo genere e non è facile pensare d'integrarci qualcosa del genere.
__________________
A casa ho almeno sette PC, in firma non ci stanno
Ultima modifica di ConteZero : 11-06-2010 alle 16:34. |
![]() |
![]() |
![]() |
#52 | ||||||
Senior Member
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
|
Quote:
Il processo produttivo permette eguali risparmi, non differenzia fra utilizzi finali. Quote:
Quote:
Quote:
Quote:
Quote:
E sono gli stessi che sistematicamente barano, anche quando c'è da giocare sporco nei driver per fare qualche frame in più e "vincere" sulla concorrenza.
__________________
A casa ho almeno sette PC, in firma non ci stanno
|
||||||
![]() |
![]() |
![]() |
#53 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14736
|
Quelle che chiami "nuove e più avveniristiche architetture" è un progetto a lungo termine che AMD porta avanti da tempo e che vede un doppio sviluppo della componente hardware e software come passo essenziale.
L'architettura per far girare i vecchi programmi ci sarà sempre, quello che cambierà sarà ciò che farà girare i nuovi programmi, che sempre più potranno usufruire della cosiddetta accelerazione gpu. Sarà il tempo a decretare se con questo progetto AMD ha scommesso bene. E proprio il fatto di partire dalle GPU a rendere tutto questo fattibile: nel frattempo che l'ecosistema non è ancora pronto per un'integrazione totale, il lavoro che viene fatto risulta comunque usufruibile dal lato software come gpgpu generico su schede anche discrete e quindi subito sfruttabile, dal lato hardware come vga integrata. |
![]() |
![]() |
![]() |
#54 | ||
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14736
|
Quote:
Ora invece il passaggio a soi e l'integrazione da la possibilità di fare questo passo avanti. Nella scheda video non consumano solo gli stream processor, ma anche tutto il resto, sia integrato nella gpu (come le rops o come le vuoi chiamare, e quelle rimangono), sia esterno (che trovi nel pcb appunto). Il pciE che intendo è quello reale, con cui connetteresti una scheda video esterna. Tra l'altro il progetto fusion prevede sempre maggiore integrazione delle componenti, con Fusion II non si potrà più distinguere tra cpu e gpu all'interno del die. Questo è l'obiettivo che si vuole raggiungere. La gestione dell'utilizzo della cache la lascio agli ingegneri AMD. Se hanno in progetto di condividerla, evidentemente avranno dei vantaggi in tal senso. Non vedo che senso abbia parlare di cache poisoning. Allora eliminiamo direttamente la cache e vedrai che tutti i problemi di cache spariranno! ![]() In generale comunque tutto questo discorso è prematuro. Da un semplice elenco punti dove potrebbero annidarsi i vantaggi di una tecnologia unificata, sei passato a discutere di cose su cui non c'è ancora alcuna base per discutere. Mi pare che tu voglia per forza vedere negativo, ma in questo momento motivi per farlo non ce ne siano ancora. Vedremo in futuro. Quote:
|
||
![]() |
![]() |
![]() |
#55 | |
Senior Member
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
|
Quote:
Che AMD (che, poverina, s'è comprata ATi e deve sopravvivere pur non essendo competitiva come CPU e con un conto in banca che è meno di un decimo quello di Intel) propini e rilanci certe cose è una cosa, che possa poi tirare fuori qualcosa del genere, specie sul medio termine, è un altra. Qui tu mi parli favolisticamente di integrazioni, aggiunte, mixaggi e via sproloquiando restando simpaticamente al di fuori del dettaglio tecnico, ovvero di COME questa roba dovrebbe venir realizzata, e di come questa roba dovrebbe venir realizzata senza compromettere la compatibilità che ancora oggi è il cuore dei processori x86. Ok, parliamo di roba nuova e fikissima, ma io qui vedo solo un "sposto un unità funzionale da un chip all'altro, chiamo il tutto fusion e cerco di lanciare l'hype"...
__________________
A casa ho almeno sette PC, in firma non ci stanno
|
|
![]() |
![]() |
![]() |
#56 |
Member
Iscritto dal: Jan 2010
Messaggi: 69
|
Secondo me quelli della intel si cagano in mano, sapendo che nel lato GPU non hanno niente in mano, e non saranno mai competitivi.
Possono aumentare quanti core vogliono, ma se una APU si comporta così, la vedranno con il canocchiale. L'unico prob. è che si potrebbe creare un monopolio. La ATI/AMD pensa già al futuro, e chi fa così, si troverà sempre meglio. |
![]() |
![]() |
![]() |
#57 | |
Senior Member
Iscritto dal: Aug 2007
Messaggi: 10227
|
Quote:
Quì si tratta di prendere una cpu x86, lasciarla esattamente com'è, ed integrare una gpu POTENTE (non quelle cagate che fa intel con gli i5) per un certo tipo di calcoli. Non capisco dove sta il problema. Non ti piace come soluzione e dovevano metterci le SPU sony per farti contento (chissà perchè poi) ? Ce ne faremo una ragione...
__________________
CM Carbide Air 540 - Thermaltake Toughpower GF A3 1200W - Asus Prime Z690-P D4 - Intel Core i7 14700K - Arctic Liquid Freezer III 280 A-RGB - 32GB Corsair Vengeance LPX 3200 - Gigabyre RTX 5070 Ti SFF - SSD Crucial T500 2TB - AOC Gaming CU34G2X CM Q500L - OCZ ZT-650W - Asus TUF Gaming A520M Plus - AMD Ryzen 5500 - 32GB Corsair Vengeance LPX 3200 - RTX 2070 Super ROG Strix - SSD Samsung 970 EVO Plus 1TB - ASUS TUF Gaming VG27AQ1A 27" |
|
![]() |
![]() |
![]() |
#58 | ||
Senior Member
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
|
Quote:
Ed nVidia è sempre lì, anche se spesso perde colpi una volta ogni tanto una l'azzecca. Quote:
__________________
A casa ho almeno sette PC, in firma non ci stanno
|
||
![]() |
![]() |
![]() |
#59 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14736
|
@ConteZero
Si, ma non ho mai detto che le evoluzioni future avrebbero perso di compatibilità. Semplicemente, strada tra l'altro già in parte intrapresa da bulldozer, le cpu amd avrebbero potenziato quella parte della cpu più general purpose e relegato il potenziamento del resto all'unità gpu. Oddio, non è proprio così semplice, ma è giusto per capirci. PS: so cosa sia la isa x86... e un 8086 l'ho avuto quando ancora i pc erano poco diffusi (mitico olivetti M240!), e ho avuto in mano anche un bell'8088 ![]() |
![]() |
![]() |
![]() |
#60 |
Senior Member
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
|
Sugli XT c'ho combattuto anch'io... il punto è che, piuttosto, quel che dice AMD ha molto senso dal punto di vista del "marketing" ma sul versante pratico non vuol dire una cippa.
Regaleremo più performance all'ambito GPU... che vuol dire ? Mi metti un core RV vicino alla CPU ? Che me ne faccio, tanto vale che mi fai una scheda acceleratrice e la piazzo sullo slot PCIe... Cioè, si, capisco, vende bene, specie quando si tratta di numeri "sulla carta"... ma in pratica è vaporware.
__________________
A casa ho almeno sette PC, in firma non ci stanno
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 18:59.