Fusion: l'unione tra GPU e CPU secondo AMD

Fusion: l'unione tra GPU e CPU secondo AMD

Ad acquisizione di ATI completata, AMD anticipa alcune caratteristiche sulle future generazioni di processori con GPU, attesi per fine 2008

di pubblicata il , alle 18:39 nel canale Processori
ATIAMD
 
44 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Er Monnezza27 Ottobre 2006, 22:33 #31
andrà a finire come 3DFX scomparirà il marchio ATI e vedremo sul mercato schede video AMD Radeon, ammesso che mantengano anche il marchio Radeon
placido227 Ottobre 2006, 22:45 #32
Scusate ma non capisco una cosa: ci saranno quattro diverse linee di CPU ciascuna (immagino) a sua volta divisa secondo diversi livelli di prestazione e ciascuna (immagino) che vuole il suo specifico socket?

Nel caso mi sembra facile prevedere un discreto aumento dei costi di produzione ed un forte aumento di quelli di distribuzione.
capitan_crasy27 Ottobre 2006, 23:27 #33
Questa unione tra CPU e GPU sono un toccasana per i sistemi mobile e Server, ma parliamo del 2009; ho speranza che questa soluzione abbia un enorme potenziale anche in campo workstation...
Provate ad immaginare un sistema 2 CPU Quad Core con tecnologia Torrenza e GPU integrate in grado di eseguire calcoli generici!
Praticamente un mostro fatto PC!!!
travaricky28 Ottobre 2006, 00:29 #34
Il risparmio nella fase produttiva è sicuro. Lì il prezzo è in base alla superficie di silicio utilizzata. Il silicio purissimo su cui fare il chip ha il suo prezzo non indifferente.
Lud von Pipper28 Ottobre 2006, 00:41 #35
Questa tcnologia mira credo a nuovi modi di concepire il computer, più che la vetusto cassone sotto le nostre scrivanie da venti e passa anni.

Pensate alla tecnologia "Wear PC" per sistemi "indossabili, utili per chi lavora lontano dalla scrivania, chirurgia, sicurezza di cantiere, tecnologia militare, ecc.
Che cosa diventeranno domani i nostri telefonini?
Oggi sono gia videotelefoni, agende elettroniche, radio, TV, Macchine fotografiche...
Domani che saranno?
E come sfruttare la prossima tecnologia per schermi LCD ripiegabili (tipo domopack )
Come sfruttare le mostruose autonomie permesse dalle future Fuel Cell?

Da quì a tre anni queste tecnologie potrebbero maturare e farsi trovare senza soluzioni adatte ad un loro sfruttamento intelligente significherebbe farsi beccare con le braghe calate. Nell'alta tecnologia occorre pianificare in anticipo le proprie mosse, anni prima della necessità effettiva di una nuova soluzione
Sajiuuk Kaar28 Ottobre 2006, 13:07 #36
Vedo la cosa come un topo vede un'elefante...
c'è ancora poca potenza nei paragonata alla produzione di calore. Secondo me assieme al procio fra un po' regaleranno il nuovo utilissimo attrezzo per chi gioca ai WBG e non si può muovere perchè deve fleettare. Al posto del dissi: il grill-CPUalimentato.
Cioè non so se avete presente la temperatura di un core normalmente quanto è d'estate a full work. sommatela a quella della scheda video. IMHO vedremo parecchi processori esplodere fuori dal mount.

Vi basti sapere che il sono uno di quelli che spalma la pasta sulle PU in stile Michelangelo inquanto ODIO i problemi di calore (anche se uso ancora aria perchè non trovo una soluzione a liquido che mi soddisfi veramente) inquanto le ultime 3 estati (questa esclusa) le ho passate a PC spento inquanto causa calore NON HO POTUTO PRATICAMENTE USARE IL PC se non di sera.

CONCLUDENDO: IMHO Se vogliono introdurre nuove periferiche esterne tipo "stufetta elettrica", "grill", "lancia termica", "lanciafiamme ad aria e plastica fusa", cacozzate simili è tutto a posto. Altrimenti bisogna prima risolvere il problema della produzione eccessiva di calore da parte dei core delle PU. E l'unica è cercare dei core che o sfruttino nuovi materiali piu' conduttivi oppure una nuova tipologia di core che sfrutti al 100% l'energia in ingresso invece che solo al 40- 45% come sono adesso.
bist28 Ottobre 2006, 17:19 #37
Originariamente inviato da: GiovanniGTS
L'encoding video potrebbe essere una di quelle attività che beneficierebbero di una tale integrazione e, se si puo' prevedere, in che misura?

Assolutamente sì, in misura drastica.
Lo dico perché già esiste un codec che sfrutta le schede video ATi X1000.
Manwë28 Ottobre 2006, 20:46 #38
Figata pazzesca
giovanbattista28 Ottobre 2006, 20:55 #39
x i consumi guardate IBM cosa stà sfornando

Da
http://punto-informatico.it/p.aspx?id=1722099&r=PI

Freddo necessario (pagina 1 di 2)

Londra - Un burlone direbbe che la seconda applicazione più utile di un processore per computer è quella di fornelletto elettrico: pochi minuti, ed un uovo è fritto. La generazione del calore, e la sua dissipazione, è in effetti uno dei maggiori problemi che devono affrontare i progettisti di chip e di computer, inclusa IBM.
............................................
killer97828 Ottobre 2006, 22:11 #40
Originariamente inviato da: omega726
Tutto questo mi entusiasma...ma onestamente pur tifando sia per ati che per amd...beh andando sul sito ATI....mi viene la malinconia....


mmm..... c'è troppo verde e poco rosso

cmq questa unione la vedo mostruosa

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^