View Full Version : Fusion: l'unione tra GPU e CPU secondo AMD
Redazione di Hardware Upg
27-10-2006, 17:39
Link alla notizia: http://www.hwupgrade.it/news/cpu/19055.html
Ad acquisizione di ATI completata, AMD anticipa alcune caratteristiche sulle future generazioni di processori con GPU, attesi per fine 2008
Click sul link per visualizzare la notizia.
Indubbiamente la cosa più interessante, aldilà di poter costruire barebone estremamente compatti per un utilizzo media center, è proprio quella di sfruttare la gpu integrata per svolgere alcuni calcoli General Purpose.
Vedremo come si svilupperà questa idea, di per se molto valida...
bella analisi e gran bel futuro che si prospetta all'orizzonte...
dagli elementi che sono a disposizione ora io prevedo una divisione in 2 branch delle CPU:
- CPU per notebook e dispositivi mobili, HTPC e desktop entry level con GPU integrata
- CPU per desktop espandibili e notebook performanti con GPU dedicata
andranno a sparire le motherboard con video integrato? chissà...
E via di eurozzi da spendere !!!
omega726
27-10-2006, 17:58
Tutto questo mi entusiasma...ma onestamente pur tifando sia per ati che per amd...beh andando sul sito ATI....mi viene la malinconia....
bartolino3200
27-10-2006, 17:58
E via di eurozzi da spendere !!!
Probabilmente ti sbagli.
Una soluzione integrata deve essere competitiva in termini economici rispetto ad una discreta, altrimenti perderebbe molto del suo appeal, fermo restando che di suo avrebbe cmq una maggiore compattezza in termini di spazio.
A quando una piattaforma mobile integrata targata full AMD?
L' anti Centrino diverrà realtà?
Quesiti che forse Paolo Corsini si è già sentito porre da me ;)
bartolino3200
27-10-2006, 17:59
Tutto questo mi entusiasma...ma onestamente pur tifando sia per ati che per amd...beh andando sul sito ATI....mi viene la malinconia....
Prova ad andare su quello AMD, allora, forse ti passa... :ops2:
hpolimar
27-10-2006, 18:20
manca il commento di chi dice che comprera' 5 ps3. ci fara' il cluster e li usera' in azienda
Firestormgdi
27-10-2006, 18:33
sui notebook sarebbe stupendo come soluzione...
sui PC nn la vedo una grande necessita' ne ora ne poi ne mai.
gianni1879
27-10-2006, 18:40
Beh sicuramente i prezzi saranno adeguati, anche se io non adotterò mai (forse) una soluzione integrata di questo tipo... preferisco le cose separate... però è vero che la faccenda la vedo molto bene :)
avrei preferito che iniziassero ad integrare prima south bridge, controller universali e periferiche di "prima necessita", e poi la grafica, ma anche partendo da qui, si arrivera' comunque al PC on chip.
comunque alla buon ora...
se ne parlava gia' nel 2002, anche se non riesco a tovare la discussione..
nel 2004 si parlava di questo: http://www.hwupgrade.it/forum/showpost.php?p=4490662&postcount=7
JohnPetrucci
27-10-2006, 18:43
Come pensavo alla prima uscita di questa tecnologia fusion, i pc desktop e notebook di media ed elevata potenza rimarranno con le soluzioni gpu dedicate e non integrate in cpu-gpu fusion adatte a tipologie di prodotti come i media-center, i dispositivi mobili o altre soluzioni enty-level(notebook etc).
leoneazzurro
27-10-2006, 18:48
W AMD & W ATI !!! :)
(sigh) Ci vediamo tra tre giorni.
bhe' JohnPetrucci,
in effetti questo e' l'ambito ideale per la totale integrazione..
minor consumo
minore spazio
maggiore stabilita' (dovuti ad una piattaforma univoca)
chip per cellulari (che ati gia' fa' in parte), e per origami saranno sicuramente i primi a beneficiare di tali soluzioni, ma con il tempo anche server e workstation ne considereranno l'ultilita'.
edit---
Doppio post chiedo venia... è l'ora...
manca il commento di chi dice che comprera' 5 ps3. ci fara' il cluster e li usera' in azienda
Ho deciso di Comprare "5" PS3 e di farci il CLUSTER!... sapete per cosa?
Per usarle in Azienda! sono un genio!
( :ciapet: :rotfl: :rotfl: :rotfl: )
non ho resistito... :ciapet:
spero che ati abbia intenzione di abbassare UN PO' i consumi dei suoi chipset... se ha intenzione di integrarli assieme ad una CPU... o altrimenti un prevetto per dissipatori ad idrogeno Liquido potrebbe essere una soluzione alternativa!
Ciao
Si ma per raffreddare popò di roba che serve?
Link alla notizia: http://www.hwupgrade.it/news/cpu/19055.html
Ad acquisizione di ATI completata, AMD anticipa alcune caratteristiche sulle future generazioni di processori con GPU, attesi per fine 2008
Click sul link per visualizzare la notizia.
spero che amd non produrra esclusivamente proci con integrato il chip grafico...perche probabilmente il prezzo aumenterebbe e anche i consumi...
io odio le schede video di fascia bassa(tipo intel gma o simili)...dovrei comprare qualcosa che non utilizzerei mai e che fa scaldare cmq il procio.
Come pensavo alla prima uscita di questa tecnologia fusion, i pc desktop e notebook di media ed elevata potenza rimarranno con le soluzioni gpu dedicate e non integrate in cpu-gpu fusion adatte a tipologie di prodotti come i media-center, i dispositivi mobili o altre soluzioni enty-level(notebook etc).
ma anche alla seconda dannazione!!!
mi spiegate come farebbe amd a unire in un unico procio gpu e cpu e non usare l'azoto liquido per raffreddarlo?
qui stiamo attendendo le nuove generazioni di schede video che consumano il doppio di un procio attuale e questi pensano di unire tutto!!!
boh
e cmq non mi piace questa strada che stanno prendendo...stiamo andando verso sistemi one brand...ci ritroveremo pc completamente costruiti da 1 solo produttore come manco i mac di una volta...
a questo punto nvidia o chiude o si butta tra le mani di intel perche voglio vedere come fa a tenere testa a un colosso come ati-amd da sola.
II ARROWS
27-10-2006, 19:06
Cappej e Diablix, forse vi conviene pensare che saranno GPU di fascia passa... quelle che trovi integrate nella scheda madre, adesso sono nella CPU. Non mi pare che quelle integrate nella scheda madre scaldino chissà quanto.
Comunque mi è venuta in mente una cosa: nelle configurazioni crossfire, abbiamo una scheda che oltre a fare il suo lavoro gestisce il comportamento dell'altra scheda. Si potrebbe fare che questa seconda GPU nel processore possa, quando presente una configurazione Crossfire naturalmente, essere il gestore del parallelismo.
Cappej e Diablix, forse vi conviene pensare che saranno GPU di fascia passa... quelle che trovi integrate nella scheda madre, adesso sono nella CPU. Non mi pare che quelle integrate nella scheda madre scaldino chissà quanto.
ma nella mobo sono un chip a parte distante dagli altri...
inoltre peche dovrei essere contento che il chip sta nel procio se prima poteva stare buono e disabilitato nella mobo???
inoltre io non compro mobo con chip grafico quinidi ora me lo danno per forza!!! consumo inutile.
Snickers
27-10-2006, 19:30
E se invece integrassero una GPU mid-range? In modo che così in ambito non videoludico si sfrutti cmq la sua capcità in virgola mobile cmq superiore alla CPU, mentre in ambito dei videogames, la si sfrutti X l'Ati Physics.
Io credo che l'integrazione della GPU (e quindi anche del chipset immagino) all'interno della CPU porterà solo vantaggi anche per chi è alla ricerca delle massime prestazioni.
Basterebbe inserire in un futuro chip quad core la gpu e il chipset rinunciando a due core (credo che per una GPU di fascia bassa sia fattibile come numero di transistor) e lasciare 1 o 2 canali HT3.0 disponibili in caso di collegamento di coprocessori dedicati al calcolo general purpose (es: server o mega multitasking) oppure alla grafica (solo la parte dell'accelerazione 3D altamente programmabile e sfruttabile come DSP per calcoli FP o altamente parallelizzabili)
Per desktop o notebook di fascia bassa basterebbe solo il chip principale per avere consumi bassi (si spera che adottino frequenze e tensioni basse) e integrazione spinta. Mentre per chi non si accontenta la possibilità di potenziare la capacità di calcolo sarebbe molto interessante.
Questo è solo uno scenario possibile che mi viene in mente unendo la tecnologia torrenza con quella della fusion; spero di non aver cannato di brutto con la previsione.
Re Lothar
27-10-2006, 19:31
Sicuramente una bella tecnologia per il futuro, la vedo male per intel, ma soprattutto per nVidia...
Ottima collaborazione ho molta fiducia in queste due aziende
Er Monnezza
27-10-2006, 19:43
orrendo come hanno stravolto il sito di ATI, con tutto questo colore verde che da agli occhi, che fine ha fatto quel bel rosso che era la bandiera di ATI?
GiovanniGTS
27-10-2006, 19:47
L'encoding video potrebbe essere una di quelle attività che beneficierebbero di una tale integrazione e, se si puo' prevedere, in che misura?
Si va bene... ma a parte l'integrazione di CPU e GPU... se la GPU è così efficiente in alcuni ambiti rispetto alla CPU, non è ancora ora che il carico di lavoro venga diviso anche con la GPU collegata al PCIexpress??? A parte nei videogame dove la GPU lavora al 100% per tutto il resto non è che faccia sta gran fatica ed è veramente uno spreco... mi sembra che sia ora di fare in modo che il sistema operativo ed il software possano caricare anche la GPU oltre che la CPU... e non per usare aero di Vista :rolleyes:
The_Killer
27-10-2006, 20:47
Da fan di nVidia avrei preferito un accordo tra quest'ultima e AMD, ma vedo che da questa unione nascono molte buone idee.
vedremo :)
leoneazzurro
27-10-2006, 21:12
ma nella mobo sono un chip a parte distante dagli altri...
inoltre peche dovrei essere contento che il chip sta nel procio se prima poteva stare buono e disabilitato nella mobo???
inoltre io non compro mobo con chip grafico quinidi ora me lo danno per forza!!! consumo inutile.
Ci saranno diverse soluzioni destinate a varie fasce di mercato, quindi CPU e GPU discrete da una parte per il mercato "assemblati-enthisiast" e soluzioni con CPU e GPU integrate per notebook leggeri e PC aziendali.
Preferisco i componenti separati era ciò che si diceva all'uscita delle prime schede video 2D + 3D che attentavano allo strapotere di 3Dfx... Ecco come è andata a finire... :)
Si vedrà...
Si vedrà...
Er Monnezza
27-10-2006, 21:33
andrà a finire come 3DFX scomparirà il marchio ATI e vedremo sul mercato schede video AMD Radeon, ammesso che mantengano anche il marchio Radeon
placido2
27-10-2006, 21:45
Scusate ma non capisco una cosa: ci saranno quattro diverse linee di CPU ciascuna (immagino) a sua volta divisa secondo diversi livelli di prestazione e ciascuna (immagino) che vuole il suo specifico socket?
Nel caso mi sembra facile prevedere un discreto aumento dei costi di produzione ed un forte aumento di quelli di distribuzione.
capitan_crasy
27-10-2006, 22:27
Questa unione tra CPU e GPU sono un toccasana per i sistemi mobile e Server, ma parliamo del 2009; ho speranza che questa soluzione abbia un enorme potenziale anche in campo workstation...
Provate ad immaginare un sistema 2 CPU Quad Core con tecnologia Torrenza e GPU integrate in grado di eseguire calcoli generici! :eek:
Praticamente un mostro fatto PC!!! :sbav:
travaricky
27-10-2006, 23:29
Il risparmio nella fase produttiva è sicuro. Lì il prezzo è in base alla superficie di silicio utilizzata. Il silicio purissimo su cui fare il chip ha il suo prezzo non indifferente.
Lud von Pipper
27-10-2006, 23:41
Questa tcnologia mira credo a nuovi modi di concepire il computer, più che la vetusto cassone sotto le nostre scrivanie da venti e passa anni.
Pensate alla tecnologia "Wear PC" per sistemi "indossabili, utili per chi lavora lontano dalla scrivania, chirurgia, sicurezza di cantiere, tecnologia militare, ecc.
Che cosa diventeranno domani i nostri telefonini?
Oggi sono gia videotelefoni, agende elettroniche, radio, TV, Macchine fotografiche...
Domani che saranno?
E come sfruttare la prossima tecnologia per schermi LCD ripiegabili (tipo domopack )
Come sfruttare le mostruose autonomie permesse dalle future Fuel Cell?
Da quì a tre anni queste tecnologie potrebbero maturare e farsi trovare senza soluzioni adatte ad un loro sfruttamento intelligente significherebbe farsi beccare con le braghe calate. Nell'alta tecnologia occorre pianificare in anticipo le proprie mosse, anni prima della necessità effettiva di una nuova soluzione
Sajiuuk Kaar
28-10-2006, 12:07
Vedo la cosa come un topo vede un'elefante...
c'è ancora poca potenza nei paragonata alla produzione di calore. Secondo me assieme al procio fra un po' regaleranno il nuovo utilissimo attrezzo per chi gioca ai WBG e non si può muovere perchè deve fleettare. Al posto del dissi: il grill-CPUalimentato.
Cioè non so se avete presente la temperatura di un core normalmente quanto è d'estate a full work. sommatela a quella della scheda video. IMHO vedremo parecchi processori esplodere fuori dal mount.
Vi basti sapere che il sono uno di quelli che spalma la pasta sulle PU in stile Michelangelo inquanto ODIO i problemi di calore (anche se uso ancora aria perchè non trovo una soluzione a liquido che mi soddisfi veramente) inquanto le ultime 3 estati (questa esclusa) le ho passate a PC spento inquanto causa calore NON HO POTUTO PRATICAMENTE USARE IL PC se non di sera.
CONCLUDENDO: IMHO Se vogliono introdurre nuove periferiche esterne tipo "stufetta elettrica", "grill", "lancia termica", "lanciafiamme ad aria e plastica fusa", cacozzate simili è tutto a posto. Altrimenti bisogna prima risolvere il problema della produzione eccessiva di calore da parte dei core delle PU. E l'unica è cercare dei core che o sfruttino nuovi materiali piu' conduttivi oppure una nuova tipologia di core che sfrutti al 100% l'energia in ingresso invece che solo al 40- 45% come sono adesso.
L'encoding video potrebbe essere una di quelle attività che beneficierebbero di una tale integrazione e, se si puo' prevedere, in che misura?
Assolutamente sì, in misura drastica.
Lo dico perché già esiste un codec che sfrutta le schede video ATi X1000.
giovanbattista
28-10-2006, 19:55
x i consumi guardate IBM cosa stà sfornando
Da
http://punto-informatico.it/p.aspx?id=1722099&r=PI
Freddo necessario (pagina 1 di 2)
Londra - Un burlone direbbe che la seconda applicazione più utile di un processore per computer è quella di fornelletto elettrico: pochi minuti, ed un uovo è fritto. La generazione del calore, e la sua dissipazione, è in effetti uno dei maggiori problemi che devono affrontare i progettisti di chip e di computer, inclusa IBM.
............................................
killer978
28-10-2006, 21:11
Tutto questo mi entusiasma...ma onestamente pur tifando sia per ati che per amd...beh andando sul sito ATI....mi viene la malinconia....
mmm..... c'è troppo verde e poco rosso :(
cmq questa unione la vedo mostruosa :O
capitan_crasy,
...e imagina un core multipipe unificate e programmabili a 3 ghz;
con sole 8 pipe hai lo stesso lavoro di una 48 pipe a 500 mhz (dubito fortemente che comunque riescano a spingere un core grafico cosi' altro in frequenza.. ha "percorsi" troppo lunghi)!
se fosse cosi', con solo 4 pipeline unificate si otterrebbero le prestazioni di una 1900.. alla faccia dell'entry livel.
capitan_crasy,
...e imagina un core multipipe unificate e programmabili a 3 ghz;
con sole 8 pipe hai lo stesso lavoro di una 48 pipe a 500 mhz (dubito fortemente che comunque riescano a spingere un core grafico cosi' altro in frequenza.. ha "percorsi" troppo lunghi)!
se fosse cosi', con solo 4 pipeline unificate si otterrebbero le prestazioni di una 1900.. alla faccia dell'entry livel.
Con un po' di sano pipelining, si riescono anche a fare unità FP che vanno a 3 GHz... Perchè una pipe grafica non dovrebbe poterci arrivare?
AMD ha l'esperienza per fare unità FP a 3 GHz, ATI ha l'esperienza per fare una pipe grafica a partire da n unità FP... La fusione delle due potrebbe dare un chip grafico con pipeline da 3 GHz... Perchè no?
Scrambler77
30-10-2006, 00:13
CPU e GPU insieme? Oddio...
Già ce lo vedo il dissipatore stock a raffreddare 400W su 2cm quadri a pieno carico...
marciufello
30-10-2006, 15:52
Credo che il problema principale di queste soluxione sia il calore generato, sicuramente non saranno Gpu affiancate a processori a 90 nm, e non credo neanche siano gpu di fascia alta che credo, come dice la news, rimarranno su schede dedicate e non saranno integrate nel processore. Sicuramente dal punto di vista delle prestazioni è una soluzione interessantissima, e penso anche che in AMD (inizio a non dire più ATI, non me ne vogliano i fan :D ) abbiano messo in preventivo il discorso consumo e calore. Ad ogni modo la vedo più dura per nvidia che per Intel. in ogni caso: W la concorrenza e l'innovazione :sofico:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.