Intel posticipa le prime soluzioni con GPU e CPU integrate
Intel cancella le solzioni Auburndale e Havendale, dotate di GPU e CPU integrate sullo stesso package, anticipando il debutto delle loro evoluzioni a 32 nanometri
di Paolo Corsini pubblicata il 02 Febbraio 2009, alle 12:06 nel canale ProcessoriIntel
Nell'ottica di revisione dei propri piani di evoluzione tecnologica per l'anno 2009, Intel avrebbe deciso di posticipare il debutto della prima cpu dotata di CPU e GPU integrate sullo stesso package al primo trimestre 2010, rispetto al terzo trimestre 2009 inizialmente preventivato.
Non solo: la prima architettura di processore di questo tipo verrà proposta dal produttore americano non con tecnologia produttiva a 45 nanometri, come inizialmente previsto, ma sfruttando la più sofisticata tecnologia produttiva a 32 nanometri che Intel dovrebbe ufficialmente mettere in produzione a partire dalla fine del 2009.
Cancellate quindi le solzioni Auburndale e Havendale, previste con tecnologia a 45 nanometri e dotate di GPU integrata al proprio interno, a tutto vantaggio delle soluzioni note con il nome in codice di Arandale basate su tecnologia a 32 nanometri. Queste ultime erano state inizialmente previste al debutto nel corso del terzo trimestre 2010 come die shrink a 32 nanometri delle soluzioni Auburnale e Havendale, mantenendone quindi le caratteristiche architetturali con un probabile incremento della cache integrata oltre a incrementi nella frequenza di clock.
L'attuale roadmap dei processori AMD prevede il debutto delle prime soluzioni con GPU e CPU integrate solo a partire dal 2011, con le soluzioni note con i nomi in codice di Llano e Ontario, rispettivamente dotate di architettura quad e dual core. Ontario, in particolare, verranno proposte con package BGA così da poter essere utilzizate all'interno di sistemi di più ridotte dimensioni. Anche per queste cpu si prevede l'utilizzo della tecnologia produttiva a 32 nanometri, di fatto indispensabile per poter abbinare GPU e CPU contenendo le dimensioni complessive del die.
Fonte: Bright Side of IT.
13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoSe hanno preso questa decisione è perchè evidentemente ci sono problemi..
Forse (la butto lì unire CPU e GPU genera problemi di surriscaldamento che danno problemi a salire di clock fino a livelli tali da avere performance competitive.. da qui la scelta di attendere direttamente i 32Nm
Tanto non sarà questa CPU a dare dei vantaggi alla fusione.
Soprattutto, ci vuole che la parte grafica abbia una memoria a parte con un suo controller perchè altrimenti non cambia molto dalle attuali soluzioni Intel come prestazioni. Magari la dimensione sarà più piccola ma non so quanti vantaggi potrà dare su un cellulare...
L'attuale Phisix di NVidia non lo sarà mai, ed è una soluzione poco furba.
Finchè poi rimarrà una funzione relegata ad una sola marca di schede video non avrà mai successo.
Una soluzione con GPU integrata nella CPU, oltre a poter diventare uno standard per Intel e Amd, potrebbe essere molto più furba come soluzione.
1- Perchè si potrebbero evitare mobo con VGA integrata, dato che sarebbe integrata nella CPU
2- Programmi come Cuda ed eventuali controparti Amd o Intel, inizierebbero ad essere utilizzati, velocizzando notevolmente alcune applicazioni.
3- I calcoli della fisica nei giochi, verrebbero relegati alla GPU integrata nella CPU, senza togliere potenza alla VGA e alla CPU.
Phisix, ora come ora, è una funzione inutile.
In realtà PhysX implementata da nVidia come ora agendo tramite driver ed eliminando potenza alla scheda video, mostrano solo della fisica imbarazzante, superata da anni.
L'attuale Phisix di NVidia non lo sarà mai, ed è una soluzione poco furba.
Finchè poi rimarrà una funzione relegata ad una sola marca di schede video non avrà mai successo.
La smettiamo con questi commenti, sono diventati piuttosto noiosi, informati prima di fare il fan boy di turno
mi sembra che le attuali vga abbiano potenza a sufficenza per poter fare entrambe e se proprio ti serve + potenza puoi utilizzare una entry level per phisx
Io aspetto solo i 32nm per cambiare piattaforma. Che si muovano, dunque.
veramente qui il fanboy non sembra lui, la storia informatica insegna che soluzioni proprietarie legate a un solo marchio difficilmente diventano standard (tant'è che se microsoft implementa delle api per la fisica nelle prossime directx, physix tramonta all'istante :asd
"veramente qui il fanboy non sembra lui, la storia informatica insegna che soluzioni proprietarie legate a un solo marchio difficilmente diventano standard (tant'è che se microsoft implementa delle api per la fisica nelle prossime directx, physix tramonta all'istante :asd"
si ma le directx sono uno standard proprietario, ma non tramontano purtroppo
Perchè se invece risultasse utilizzabile fin da subito, sarebbe notevolmente meglio di un IGP.
Io però preferirei implementare un ottimizzazione di calcolo della grafica processata direttamente dalle CPU.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".