View Full Version : Intel posticipa le prime soluzioni con GPU e CPU integrate
Redazione di Hardware Upg
02-02-2009, 11:06
Link alla notizia: http://www.hwupgrade.it/news/cpu/intel-posticipa-le-prime-soluzioni-con-gpu-e-cpu-integrate_27896.html
Intel cancella le solzioni Auburndale e Havendale, dotate di GPU e CPU integrate sullo stesso package, anticipando il debutto delle loro evoluzioni a 32 nanometri
Click sul link per visualizzare la notizia.
mah.. mancato guadagno per Intel..
Se hanno preso questa decisione è perchè evidentemente ci sono problemi..
Forse (la butto lì) unire CPU e GPU genera problemi di surriscaldamento che danno problemi a salire di clock fino a livelli tali da avere performance competitive.. da qui la scelta di attendere direttamente i 32Nm
II ARROWS
02-02-2009, 11:20
Che bei nomi... Per il nuovo sono rimasti sulla stessa linea.
Tanto non sarà questa CPU a dare dei vantaggi alla fusione.
Soprattutto, ci vuole che la parte grafica abbia una memoria a parte con un suo controller perchè altrimenti non cambia molto dalle attuali soluzioni Intel come prestazioni. Magari la dimensione sarà più piccola ma non so quanti vantaggi potrà dare su un cellulare...
Marcodj85
02-02-2009, 11:22
oppure sono già molto avanti con i 32nm tanto da saltare per risparmiare qualche soldo la produzione a 45nm(data la crisi vorranno risparmiare e puntare subito sui 32 penso non sia sbagliata come mossa anche se all'inizio potrebbe risultare + costosa come scelta penso che in qualche mese recupererebbero tutto)
))Lexandrus((
02-02-2009, 11:53
Speriamo che questo tipo di soluzioni diventi uno standard.
L'attuale Phisix di NVidia non lo sarà mai, ed è una soluzione poco furba.
Finchè poi rimarrà una funzione relegata ad una sola marca di schede video non avrà mai successo.
Una soluzione con GPU integrata nella CPU, oltre a poter diventare uno standard per Intel e Amd, potrebbe essere molto più furba come soluzione.
1- Perchè si potrebbero evitare mobo con VGA integrata, dato che sarebbe integrata nella CPU
2- Programmi come Cuda ed eventuali controparti Amd o Intel, inizierebbero ad essere utilizzati, velocizzando notevolmente alcune applicazioni.
3- I calcoli della fisica nei giochi, verrebbero relegati alla GPU integrata nella CPU, senza togliere potenza alla VGA e alla CPU.
Phisix, ora come ora, è una funzione inutile.
II ARROWS
02-02-2009, 12:45
Lasciando perdere PhysX, Havok e Crysis che usa un motore fisico suo, dimostrano che la CPU è adatta a portare a termine lavori del genere con grande precisione senza impattare troppo sulle prestazioni.
In realtà PhysX implementata da nVidia come ora agendo tramite driver ed eliminando potenza alla scheda video, mostrano solo della fisica imbarazzante, superata da anni.
Angelonero87
02-02-2009, 12:47
Speriamo che questo tipo di soluzioni diventi uno standard.
L'attuale Phisix di NVidia non lo sarà mai, ed è una soluzione poco furba.
Finchè poi rimarrà una funzione relegata ad una sola marca di schede video non avrà mai successo.
La smettiamo con questi commenti, sono diventati piuttosto noiosi, informati prima di fare il fan boy di turno
3- I calcoli della fisica nei giochi, verrebbero relegati alla GPU integrata nella CPU, senza togliere potenza alla VGA e alla CPU.
mi sembra che le attuali vga abbiano potenza a sufficenza per poter fare entrambe e se proprio ti serve + potenza puoi utilizzare una entry level per phisx
SwatMaster
02-02-2009, 12:59
oppure sono già molto avanti con i 32nm tanto da saltare per risparmiare qualche soldo la produzione a 45nm(data la crisi vorranno risparmiare e puntare subito sui 32 penso non sia sbagliata come mossa anche se all'inizio potrebbe risultare + costosa come scelta penso che in qualche mese recupererebbero tutto)
Io aspetto solo i 32nm per cambiare piattaforma. Che si muovano, dunque. :O
Mr_Paulus
02-02-2009, 13:29
La smettiamo con questi commenti, sono diventati piuttosto noiosi, informati prima di fare il fan boy di turno
veramente qui il fanboy non sembra lui, la storia informatica insegna che soluzioni proprietarie legate a un solo marchio difficilmente diventano standard (tant'è che se microsoft implementa delle api per la fisica nelle prossime directx, physix tramonta all'istante :asd:)
"veramente qui il fanboy non sembra lui, la storia informatica insegna che soluzioni proprietarie legate a un solo marchio difficilmente diventano standard (tant'è che se microsoft implementa delle api per la fisica nelle prossime directx, physix tramonta all'istante :asd"
si ma le directx sono uno standard proprietario, ma non tramontano purtroppo
frontinoluca
02-02-2009, 15:11
Ma la GPU integrata in un processore necessita comunque di driver appositi?
Perchè se invece risultasse utilizzabile fin da subito, sarebbe notevolmente meglio di un IGP.
Io però preferirei implementare un ottimizzazione di calcolo della grafica processata direttamente dalle CPU.
Mr_Paulus
02-02-2009, 19:51
si ma le directx sono uno standard proprietario, ma non tramontano purtroppo
veramente qui il fanboy non sembra lui, la storia informatica insegna che soluzioni proprietarie legate a un solo marchio difficilmente diventano standard (tant'è che se microsoft implementa delle api per la fisica nelle prossime directx, physix tramonta all'istante :asd:)
le directx sono universalmente adottate in ambito windows, purtroppo e per fortuna.
Ma la GPU integrata in un processore necessita comunque di driver appositi?
immagino proprio di si..
Io però preferirei implementare un ottimizzazione di calcolo della grafica processata direttamente dalle CPU.
così andiamo a stra-caricarle di lavoro, una piccola gpu col minimo indispensabile per fare girare interfacce grafice tipo aero & co. integrata in ogni gpu sarebbe l'ideale, così se non si gioca è più che sufficiente, e se si gioca può essere utilizzata per la fisica.
xxfamousxx
08-02-2009, 18:26
ma si sa già se e quando usciranno i nehalem a 32nm?
paolo.guidx
25-05-2009, 18:52
mah.. mancato guadagno per Intel..
Se hanno preso questa decisione è perchè evidentemente ci sono problemi..
Forse (la butto lì) unire CPU e GPU genera problemi di surriscaldamento che danno problemi a salire di clock fino a livelli tali da avere performance competitive.. da qui la scelta di attendere direttamente i 32Nm
Non penserai mica che la GPU che andranno ad integrare abbia qualcosa a che vedere con una 295, vero?
ma si sa già se e quando usciranno i nehalem a 32nm?
Fine 2010 (terzo trimestre, quindi diciamo calcolando i ritardi, per natale)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.