Intel posticipa le prime soluzioni con GPU e CPU integrate
Intel cancella le solzioni Auburndale e Havendale, dotate di GPU e CPU integrate sullo stesso package, anticipando il debutto delle loro evoluzioni a 32 nanometri
di Paolo Corsini pubblicata il 02 Febbraio 2009, alle 12:06 nel canale ProcessoriIntel
Nell'ottica di revisione dei propri piani di evoluzione tecnologica per l'anno 2009, Intel avrebbe deciso di posticipare il debutto della prima cpu dotata di CPU e GPU integrate sullo stesso package al primo trimestre 2010, rispetto al terzo trimestre 2009 inizialmente preventivato.
Non solo: la prima architettura di processore di questo tipo verrà proposta dal produttore americano non con tecnologia produttiva a 45 nanometri, come inizialmente previsto, ma sfruttando la più sofisticata tecnologia produttiva a 32 nanometri che Intel dovrebbe ufficialmente mettere in produzione a partire dalla fine del 2009.
Cancellate quindi le solzioni Auburndale e Havendale, previste con tecnologia a 45 nanometri e dotate di GPU integrata al proprio interno, a tutto vantaggio delle soluzioni note con il nome in codice di Arandale basate su tecnologia a 32 nanometri. Queste ultime erano state inizialmente previste al debutto nel corso del terzo trimestre 2010 come die shrink a 32 nanometri delle soluzioni Auburnale e Havendale, mantenendone quindi le caratteristiche architetturali con un probabile incremento della cache integrata oltre a incrementi nella frequenza di clock.
L'attuale roadmap dei processori AMD prevede il debutto delle prime soluzioni con GPU e CPU integrate solo a partire dal 2011, con le soluzioni note con i nomi in codice di Llano e Ontario, rispettivamente dotate di architettura quad e dual core. Ontario, in particolare, verranno proposte con package BGA così da poter essere utilzizate all'interno di sistemi di più ridotte dimensioni. Anche per queste cpu si prevede l'utilizzo della tecnologia produttiva a 32 nanometri, di fatto indispensabile per poter abbinare GPU e CPU contenendo le dimensioni complessive del die.
Fonte: Bright Side of IT.










Fondazione Chips-IT, l'Italia alla riscossa nei chip. Il piano e la partnership EssilorLuxottica
Nutanix: innovazione, semplicità e IA al centro della strategia hybrid multicloud
Lenovo LOQ 15i Gen 10 (15IRX10) alla prova: il notebook gaming 'budget' che non ti aspetti
NVIDIA H200 in Cina, ma è solo una strategia per tenere le aziende al guinzaglio di CUDA
Addio allo Studio Gainax, dopo 42 anni chiude la casa di Evangelion ed altri capolavori
Milly Alcock è Supergirl nel primo trailer del nuovo film DC Studios
Veeam accelera sulla data resilience: dalla v13 alla piattaforma unificata con Securiti AI
Klarna arriva su Apple Pay anche in Italia ed è possibile rateizzare anche gli acquisti in negozio
Samsung ha in programma tre nuovi Galaxy A che debutteranno a breve
Amazon, il destino di un reso: il viaggio all'interno del centro MXP5 di Castel San Giovanni
realme Buds Clip: auricolari open-ear a clip per chi cerca comfort e versatilità
Proiettore Full HD con autofocus e WiFi 6 a soli 64€: l'offerta WiMiUS che sta facendo impazzire Amazon
Il primo ministro britannico annuncia indagine su Rockstar Games per presunto union busting nel Regno Unito
Via lo stress da regali: tutte le promozioni Amazon aggiornate, 2 minuti per trovare idee e grandi affari
iliad regala centinaia di giga con iliadclub: ecco chi può averli (e come)
Smartwatch top sotto i 75€? AMAZFIT Active 2 su Amazon ed è un best-buy assoluto
Spotify lancia le Prompted Playlists: playlist su misura da prompt testuali









13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoSe hanno preso questa decisione è perchè evidentemente ci sono problemi..
Forse (la butto lì
Tanto non sarà questa CPU a dare dei vantaggi alla fusione.
Soprattutto, ci vuole che la parte grafica abbia una memoria a parte con un suo controller perchè altrimenti non cambia molto dalle attuali soluzioni Intel come prestazioni. Magari la dimensione sarà più piccola ma non so quanti vantaggi potrà dare su un cellulare...
L'attuale Phisix di NVidia non lo sarà mai, ed è una soluzione poco furba.
Finchè poi rimarrà una funzione relegata ad una sola marca di schede video non avrà mai successo.
Una soluzione con GPU integrata nella CPU, oltre a poter diventare uno standard per Intel e Amd, potrebbe essere molto più furba come soluzione.
1- Perchè si potrebbero evitare mobo con VGA integrata, dato che sarebbe integrata nella CPU
2- Programmi come Cuda ed eventuali controparti Amd o Intel, inizierebbero ad essere utilizzati, velocizzando notevolmente alcune applicazioni.
3- I calcoli della fisica nei giochi, verrebbero relegati alla GPU integrata nella CPU, senza togliere potenza alla VGA e alla CPU.
Phisix, ora come ora, è una funzione inutile.
In realtà PhysX implementata da nVidia come ora agendo tramite driver ed eliminando potenza alla scheda video, mostrano solo della fisica imbarazzante, superata da anni.
L'attuale Phisix di NVidia non lo sarà mai, ed è una soluzione poco furba.
Finchè poi rimarrà una funzione relegata ad una sola marca di schede video non avrà mai successo.
La smettiamo con questi commenti, sono diventati piuttosto noiosi, informati prima di fare il fan boy di turno
mi sembra che le attuali vga abbiano potenza a sufficenza per poter fare entrambe e se proprio ti serve + potenza puoi utilizzare una entry level per phisx
Io aspetto solo i 32nm per cambiare piattaforma. Che si muovano, dunque.
veramente qui il fanboy non sembra lui, la storia informatica insegna che soluzioni proprietarie legate a un solo marchio difficilmente diventano standard (tant'è che se microsoft implementa delle api per la fisica nelle prossime directx, physix tramonta all'istante :asd
"veramente qui il fanboy non sembra lui, la storia informatica insegna che soluzioni proprietarie legate a un solo marchio difficilmente diventano standard (tant'è che se microsoft implementa delle api per la fisica nelle prossime directx, physix tramonta all'istante :asd"
si ma le directx sono uno standard proprietario, ma non tramontano purtroppo
Perchè se invece risultasse utilizzabile fin da subito, sarebbe notevolmente meglio di un IGP.
Io però preferirei implementare un ottimizzazione di calcolo della grafica processata direttamente dalle CPU.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".