Intel posticipa le prime soluzioni con GPU e CPU integrate

Intel posticipa le prime soluzioni con GPU e CPU integrate

Intel cancella le solzioni Auburndale e Havendale, dotate di GPU e CPU integrate sullo stesso package, anticipando il debutto delle loro evoluzioni a 32 nanometri

di pubblicata il , alle 12:06 nel canale Processori
Intel
 

Nell'ottica di revisione dei propri piani di evoluzione tecnologica per l'anno 2009, Intel avrebbe deciso di posticipare il debutto della prima cpu dotata di CPU e GPU integrate sullo stesso package al primo trimestre 2010, rispetto al terzo trimestre 2009 inizialmente preventivato.

Non solo: la prima architettura di processore di questo tipo verrà proposta dal produttore americano non con tecnologia produttiva a 45 nanometri, come inizialmente previsto, ma sfruttando la più sofisticata tecnologia produttiva a 32 nanometri che Intel dovrebbe ufficialmente mettere in produzione a partire dalla fine del 2009.

Cancellate quindi le solzioni Auburndale e Havendale, previste con tecnologia a 45 nanometri e dotate di GPU integrata al proprio interno, a tutto vantaggio delle soluzioni note con il nome in codice di Arandale basate su tecnologia a 32 nanometri. Queste ultime erano state inizialmente previste al debutto nel corso del terzo trimestre 2010 come die shrink a 32 nanometri delle soluzioni Auburnale e Havendale, mantenendone quindi le caratteristiche architetturali con un probabile incremento della cache integrata oltre a incrementi nella frequenza di clock.

L'attuale roadmap dei processori AMD prevede il debutto delle prime soluzioni con GPU e CPU integrate solo a partire dal 2011, con le soluzioni note con i nomi in codice di Llano e Ontario, rispettivamente dotate di architettura quad e dual core. Ontario, in particolare, verranno proposte con package BGA così da poter essere utilzizate all'interno di sistemi di più ridotte dimensioni. Anche per queste cpu si prevede l'utilizzo della tecnologia produttiva a 32 nanometri, di fatto indispensabile per poter abbinare GPU e CPU contenendo le dimensioni complessive del die.

Fonte: Bright Side of IT.

13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7702 Febbraio 2009, 12:16 #1
mah.. mancato guadagno per Intel..
Se hanno preso questa decisione è perchè evidentemente ci sono problemi..

Forse (la butto lì unire CPU e GPU genera problemi di surriscaldamento che danno problemi a salire di clock fino a livelli tali da avere performance competitive.. da qui la scelta di attendere direttamente i 32Nm
II ARROWS02 Febbraio 2009, 12:20 #2
Che bei nomi... Per il nuovo sono rimasti sulla stessa linea.

Tanto non sarà questa CPU a dare dei vantaggi alla fusione.

Soprattutto, ci vuole che la parte grafica abbia una memoria a parte con un suo controller perchè altrimenti non cambia molto dalle attuali soluzioni Intel come prestazioni. Magari la dimensione sarà più piccola ma non so quanti vantaggi potrà dare su un cellulare...
Marcodj8502 Febbraio 2009, 12:22 #3
oppure sono già molto avanti con i 32nm tanto da saltare per risparmiare qualche soldo la produzione a 45nm(data la crisi vorranno risparmiare e puntare subito sui 32 penso non sia sbagliata come mossa anche se all'inizio potrebbe risultare + costosa come scelta penso che in qualche mese recupererebbero tutto)
))Lexandrus((02 Febbraio 2009, 12:53 #4
Speriamo che questo tipo di soluzioni diventi uno standard.

L'attuale Phisix di NVidia non lo sarà mai, ed è una soluzione poco furba.
Finchè poi rimarrà una funzione relegata ad una sola marca di schede video non avrà mai successo.

Una soluzione con GPU integrata nella CPU, oltre a poter diventare uno standard per Intel e Amd, potrebbe essere molto più furba come soluzione.
1- Perchè si potrebbero evitare mobo con VGA integrata, dato che sarebbe integrata nella CPU
2- Programmi come Cuda ed eventuali controparti Amd o Intel, inizierebbero ad essere utilizzati, velocizzando notevolmente alcune applicazioni.
3- I calcoli della fisica nei giochi, verrebbero relegati alla GPU integrata nella CPU, senza togliere potenza alla VGA e alla CPU.
Phisix, ora come ora, è una funzione inutile.
II ARROWS02 Febbraio 2009, 13:45 #5
Lasciando perdere PhysX, Havok e Crysis che usa un motore fisico suo, dimostrano che la CPU è adatta a portare a termine lavori del genere con grande precisione senza impattare troppo sulle prestazioni.

In realtà PhysX implementata da nVidia come ora agendo tramite driver ed eliminando potenza alla scheda video, mostrano solo della fisica imbarazzante, superata da anni.
Angelonero8702 Febbraio 2009, 13:47 #6
Originariamente inviato da: ))Lexandrus((
Speriamo che questo tipo di soluzioni diventi uno standard.

L'attuale Phisix di NVidia non lo sarà mai, ed è una soluzione poco furba.
Finchè poi rimarrà una funzione relegata ad una sola marca di schede video non avrà mai successo.

La smettiamo con questi commenti, sono diventati piuttosto noiosi, informati prima di fare il fan boy di turno

Originariamente inviato da: ))Lexandrus((
3- I calcoli della fisica nei giochi, verrebbero relegati alla GPU integrata nella CPU, senza togliere potenza alla VGA e alla CPU.

mi sembra che le attuali vga abbiano potenza a sufficenza per poter fare entrambe e se proprio ti serve + potenza puoi utilizzare una entry level per phisx
SwatMaster02 Febbraio 2009, 13:59 #7
Originariamente inviato da: Marcodj85
oppure sono già molto avanti con i 32nm tanto da saltare per risparmiare qualche soldo la produzione a 45nm(data la crisi vorranno risparmiare e puntare subito sui 32 penso non sia sbagliata come mossa anche se all'inizio potrebbe risultare + costosa come scelta penso che in qualche mese recupererebbero tutto)


Io aspetto solo i 32nm per cambiare piattaforma. Che si muovano, dunque.
Mr_Paulus02 Febbraio 2009, 14:29 #8
Originariamente inviato da: Angelonero87
La smettiamo con questi commenti, sono diventati piuttosto noiosi, informati prima di fare il fan boy di turno


veramente qui il fanboy non sembra lui, la storia informatica insegna che soluzioni proprietarie legate a un solo marchio difficilmente diventano standard (tant'è che se microsoft implementa delle api per la fisica nelle prossime directx, physix tramonta all'istante :asd
e.cera02 Febbraio 2009, 16:11 #9

"veramente qui il fanboy non sembra lui, la storia informatica insegna che soluzioni proprietarie legate a un solo marchio difficilmente diventano standard (tant'è che se microsoft implementa delle api per la fisica nelle prossime directx, physix tramonta all'istante :asd"

si ma le directx sono uno standard proprietario, ma non tramontano purtroppo
frontinoluca02 Febbraio 2009, 16:11 #10
Ma la GPU integrata in un processore necessita comunque di driver appositi?
Perchè se invece risultasse utilizzabile fin da subito, sarebbe notevolmente meglio di un IGP.
Io però preferirei implementare un ottimizzazione di calcolo della grafica processata direttamente dalle CPU.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^