View Full Version : Intel, GPU integrata nel processore?
Redazione di Hardware Upg
22-09-2006, 11:11
Link alla notizia: http://www.hwupgrade.it/news/cpu/18655.html
Intel avrebbe in programma di integrare il processore grafico nella CPU. Progetto senza futuro o concreto scenario per il futuro?
Click sul link per visualizzare la notizia.
AMD con l'acquisizione dell'esperienza di ATI nel campo video punterà tutto su sistemi altamente integrati tra i quali proprio una CPU con grafica integrata direttamente nel silicio.
Intel questo lo sà e non vuole trovarsi spiazzata ....
Gio&Gio
Bluknigth
22-09-2006, 11:17
Credo sia una soluzione valida per il settore notebook ultraslim o per Thin client molto piccoli....
Del resto non c'era già un progetto VIA con una CPU che integrasse tutto (processore, chipset e grafica) appunto per questi campi di utilizzo?
Qualcuno se ne ricorda?
La notizia è sicuramente interessante....ma questa soluzione integrata nella cpu andrà ad affiancare una classica scheda video o sarà un'evoluzione delle attuali schede video integrate e quindi dedicate alla fascia entry level ed alle schede all in one?
Tritologol
22-09-2006, 11:25
B'è con un sistema del genere i pc di fascia bassa costeranno davvero poco ... ricordiamoci che c'è sempre chi usa il pc solo per navigare e scrivere su word
Feanortg
22-09-2006, 11:27
Beh, sono arrivati al quad core... Togliere 2 core e metterne uno, ad esempio, dedicato alla grafica ed un altro, ad esempio, dedicato alla fisica.. Non penso sia un problema per loro!
Da una parte è vero che per cambiare scheda grafica bisognerebbe cambiare tutto il sistema. Dall'altra... Beh, oggi come oggi succede piu' o meno la stessa cosa (o per via delle DDR, o per AGP, o per il socket!).
Magari facessero un GPU che combatta con ATI e Nvidia!
Avanti con lo sviluppo :D ...
PS:
Paolooo.. Alessandrooo.. me la mandate una cartolina da San Francisco quando ci sarà l'IDF?? :D
In teoria se si integrasse un intero pc su un unico package le prestazioni salirebbero a dismisura...
Il problema sono i costi di realizzazione e le possibilità tecniche di "integrare" surriscaldamento, soluzioni da adottare ecc.
Secondo me è un'ottima soluzione e potrà essere valida anche per sistema high-end (forse sopratutto.... non la vedete bene una bella siglia ATHLON64 GFX 64 ?!? :sofico: ).
Dipende tutto da come sarà realizzata.
Le conclusioni di questo articolo comunque mi sembrano molto intelligenti...
Qualcosa di grosso si sta muovendo gente... attendete e meditate. :O
Aggiungo un'altra osservazione: è in questa direzione che in un certo senso DEVE evolversi il mercato pc.
Ormai i processori di per sé stanno divenendo piuttosto stagnanti.
Intel ha faticato molto a tirare fuori qualcosa di meglio dei Pentium 4 ed è patito grossi insuccessi andando anche nella strada sbagliata (con Netburst).
Ok moltiplicare i core ma un utente consumer non potrà beneficiare ecessivamente di questo tipo di soluzione (senza contare gli alti livelli di ingegnerizzazione del sw necessari per benefeciarne).
E' difficile pensare a che cosa potra nascere di meglio dei core 2.
L'evoluzione dei PC è soprattutto nella grafica e se si spinge in questo senso viene quasi naturale di pensare che processore e GPU debbano essere integrati.
Chissà... vedremo. Secondo me fra 4 - 5 anni NVIDIA avrà un po' di problemi (o magari sarà acquista da Intel o Apple... :D )
pietro667
22-09-2006, 11:31
Amd ha parecchi atout da giocare in questa mano...
Innanzitutto il know-how sull'integrazione del memory controller nella CPU, e poi la padronanza del HTT (che nella versione 3 è ancora più performante e flessibile, e può sostiture il local bus PCI/PCI express)
Ati da parte sua ha già affrontato il problema di integrazione all'interno dei chipset... insomma, vedo questo annuncio di Intel come un hype per anticipare quello che AMD/Ati già studiano, secondo me...
Wow in questo modo i test cpu dei 3dmark non andranno più a 1-2 fps :asd:
PErò non male come idea. Diverrebbe un rapporto prezzo\utilità non trascurabile. Cerchiamo infatti di sottolineare che una gran mole di computer svolge uniche funzioni di navigazione e Office quindi nulla che richieda enormi prestazioni video.
BYezzzzzzzzzzzzzzzzzzzzzzzz
ghiltanas
22-09-2006, 11:57
alien3 credo che il sistema video integrato sia inizialmente di livello basso e quindi adatto a chiunque. non credo che questa soluzione possa sostituire le schede video entry-level, mentre per le fasce + alte di schede andrà a costituire un aiuto. una soluzione potrebbe essere di occuparsi principalmente del OS in vista anche del fatto che il nuovo windows è particolarmente esigente
a parte che la cosa l'aveva già detta amd una settimana fa...
cmq a mio parere sarebbe molto più furbo integrare un unità per il calcolo della fisica nella cpu... abbiamo già delle ottime GPU, invece di puntare alla terza scheda in sli x il calcolo della fisica perchè non integrarla nella cpu?
falconfx
22-09-2006, 12:07
E molto probabilmente i nostri PC diventeranno più silenziosi:
integrando CPU e GPU in un unico chip, sarà possibile usare un solo dissipatore di calore, con tutti i benefici "sonori" che ciò comporta!
Tuttavia, se AMD ha intenzione di integrare nelle sue CPU i chip video ATI, l'unica alternativa sarebbe passare ad Intel, dato che sono fan di nVidia (e forse Intel, per "par condicio", integrerà i chip nVidia)
Beh, pe quel che riguarda intel penso che sia difficile portare avanti un progetto simile senza considerare di portare il controller della memoria nel processore, le minori latenze da una parte si sommerebbero alle latenze dell'insieme cpu-chipset-memorie.
A meno di integrare delle edram, come x360, soluzione certamente performante, ma ruba spazio al die del processore e soprattutto fa lievitare i costi del chip.
Con controller di memoria integrato e una piccola memoria embedded la trovo una soluzione abbastanza affascinante, si potrebbero veramente costruire sistemi potenti e di ridotte dimensioni.
capitan_crasy
22-09-2006, 12:16
Amd ha parecchi atout da giocare in questa mano...
Innanzitutto il know-how sull'integrazione del memory controller nella CPU, e poi la padronanza del HTT (che nella versione 3 è ancora più performante e flessibile, e può sostiture il local bus PCI/PCI express)
Ati da parte sua ha già affrontato il problema di integrazione all'interno dei chipset... insomma, vedo questo annuncio di Intel come un hype per anticipare quello che AMD/Ati già studiano, secondo me...
da non dimenticare che il futuro "K9" dovrebbe avere il controller PCI-Express integrato nella CPU... ;)
la gpu nel core della cpu??!??!
il cell gia' lo fa....
che famo ci mettiamo a copiare?!?!?
hehehhe
la rivoluzione degli ultimi anni e' stata generata proprio da ATI e NVIDIA non certo da amd e intel...
le GPU hanno raggiunto una complessità enorme.....decine di volte piu' potenti dagli anni 2000 al 2006 al sono cresciuti molto meno i processori....
inoltre la tecnologia multicard ha permesso l'utilizzo in parallelo fino a 4 gpu cos'altro volete?
Per me saranno inizialmente per soluzioni entry level... sicuramente chi fa spesso upgrade del computer non lo terrà in considerazione..
Fantastico, ma ci sono due problemi di fondo: la memoria (come ha già detto Nolimit) e il calore.
Con una GPU integrata nel processore, la VRAM da qualche parte deve essere pur ricavata. Memoria condivisa non mi sembra una grande soluzione, mentre utilizzando quella dedicata la Motherboard dovrebbe essere dotata di un altro bus specifico. Quest'ultima soluzione può essere molto comoda dando possibilità di espansione...ma in termini di spazio crea problemi. Usare delle edram sarebbe ottimale, ma i costi salgono *parecchio* :O
Altro problema: Con applicazioni che fanno pesante uso sia di CPU che di GPU il calore generato è elevatissimo...il raffreddamento a liquido dovrà essere di serie (con conseguenti costi, rumori e rischi).
In ogni caso queste CPU saranno senz'altro più voluminose.
Secondo me dovrebbero concentrare gli sforzi sulle comuniazioni laser.
monsterman
22-09-2006, 12:34
magari si potrà utilizzare per il calcolo della fisica senza acquistare altre schede aggiuntive
+Benito+
22-09-2006, 12:35
ricordo il media GX di una decina di anni fa, che non ebbe mercato, però quando si parla di intel....
.. Mi sembra la cosa più ragionevole!!!
Con la nuova versione del BUS di AMD dovrebbe essere possibile montare più socket e in funzione di ciò che si monta sfruttare il tutto.
Esempio 1 :1 CPU x2 + 1 GPU.
Esempio 2: 1 CPU x4 + 1 GPUx2.
con due socket posso già raddoppiare la potenza pensate ne ho 4 ...
Si eliminerebbe il PCI-E, diminuirebbero le latenze, gli ingombri e i costi.
...Solo il discorso della condivisione della RAM mi lascia perplesso
Azzo è quanto scalda una affare del genere
GrandeLucifero
22-09-2006, 13:10
Questo è il passo decisivo verso il TRUSTED COMPUTING,
cioè PALLADIUM : criptare i dati dalla CPU alla GPU, senza
passare per il bus dati.
mauriziofa
22-09-2006, 13:15
Scusi, mi da il nuovo processore Intel Core 12 Duo? Eccolo.
Senta ha anche il dissipatore? Si, prendo il muletto e arrivo, dove ha parcheggiato il camion per il dissipatore?
Scherzi a parte credo che fino a quando non si scenderà di parecchi nanaometri non se ne farà niente, troppa richiesta energetica, troppo calore dissipato. Forse a 24 nm inizieranno a produrre qualcosa di commercializzabile ma prima non credo.
Vorrei sbagliarmi, ma mi sembra che si stanno tutti muovebndo (a lungo termine ovviamente) verso una standardizzazione per ogni fascia di mercato. INTEL ha già cominciato con il centrino nei notebook, VIIV nell'HTPC etc... quindi alla fine non cambieremo 'solo' GPU o CPU, ma ti compri il pacchetto intero. Avremo quindi piattaforme desktop, workstation e server e games (anche se penso che prima o poi spariranno in favore delle consolle)...quando il mercato sarà Microsoft pronto dirà che non ha più senso sviluppare librerie grafiche per i giochi o meglio le librerie non permetteranno di avere le prestazioni delle consolle.....tutto ovviamente sotto TCPA...
Feanortg
22-09-2006, 13:18
Eh... GrandeLucifero.... Tutti sti discorsi su PALLADIUM hanno rotto le pall*! Accettando che ci sono grandi cospirazioni alla x-files, che le ultime MB hanno effettivamente integrati nuovi chip per sto Trusted Computing etc etc... Personalmente non mi preoccupo. Quando usci il primo CD ROM si penso' fosse la fine della pirateria dei videogame... Poi le prime protezioni, dongle... Vedi ora che pure la microzoz prima fa i DRM e poi non li supporta nei suoi stessi player! Non facciamo allarmismi. Sono 10 anni che la gente si dispera alla sola ipotesi che la pirateria finisca. Il risultato? Ancora nessun "disoccupato" che butta via il PC perchè non ha soldi per comprare il software.
jappilas
22-09-2006, 13:36
Azzo è quanto scalda una affare del genere
ne dubito... imho non lo si dovrebbe vedere nella stessa ottica di una delle GPU di fascia alta attuali
queste hanno gli elevati livelli di consumo e dissipazione che hanno, ma integrano anche da 300 milioni di transistor in su (per varie decine di unità shader) e sono realizzate a 90 o che vada bene a 80 nanometri
integrando al processore anche il core della GPU sullo stesso die, quantomeno questo si avvantaggerebbe della realizzazione a 65 nm applicata da intel alle sue cpu - inoltre è molto probabile che (nonostante la scalabilità intrinseca dei core gpu supercalari) il livello di complessità della sezione gpu non vada oltre il gma3000 che intel già integra a livello chipset... a livello di una VGA esterna di fascia bassa o media, ma non certo top...
Questo è il passo decisivo verso il TRUSTED COMPUTING,
cioè PALLADIUM : criptare i dati dalla CPU alla GPU, senza
passare per il bus dati.
si sentiva un po' la mancanza del FUD da "grande fratello"... :D
Jon_Snow
22-09-2006, 13:40
A me sa molto di "favola" in pieno stile Inquirer..
zanardi84
22-09-2006, 13:45
Mhh, in teoria questo significherebbe dare largo spazio alle tecnologie turbo cache o similari, perchè non penso integrino i chip di memoria.
Perciò vedrei bene questa tecnologia sui portatili ultramobili che non necessitano di grandissime capacità elaborative; il tutto a vantaggio del peso e dell'autonomia.
Per quanto riguarda le soluzioni più performanti credo sia molto meglio separare i due componenti. Le temperature delle GPU avanzate sono notevoli, perciò mi aspetterei non pochi problemi di surriscaldamento di tutta l'unità, senza contare che per tenere al fresco un chip di questo tipo sarebbe necessario e obbligatorio adottare sistemi di raffreddamento molto sofisticati come le celle di Peltier o un impianto di refrigerazione, con conseguenti costi esorbitanti.
era ora!!! forza ora voglio un intero PC intregrato in un unico CHIPPONE!! :D
...è un passo che ci si aspettava considerate le mosse di AMD. L'aquisizione di ATI è il chiaro segno del desiderio di integrazione dei chipset nella CPU come "primo passo" o quantomeno come prerogativa a "breve" termine. In questa direzione arriva così anche l'integrazione di GPU e probabilmente anche delle unità di calcolo per la fisica. Tutto questo perchè come si evince dalle notizie il passaggio ormai prossimo ai multicore >2 è stato più "facile" del previsto quindi le prospettive si dilatano. A me sarebbe piaciuta più una GPU solo core, con il suo bel socket sulla MB in modo da mantenere un mercato video attivo e garantire la possibilità di upgrade. Certo però che il mercato stesso subirà un cambiamento tale(sarà soprattutto quello schede-video presumibilmente a subire un ridimensionamento clamoroso), che forse si otterrà un rapporto prezzo prestazioni delle CPU all in one molto più favorevole dell'attuale e per l'utente finale nn può èssere che un bene. Alla fine dei conti se pensiamo quanto costa una console e quanto un PC che permette le stesse prestazioni il divario è assurdo...quindi ben vengano le integrazioni.
Demetrius
22-09-2006, 14:37
ormai i SystemOnChip sono il futuro... tutte le società ci stanno puntanto molto. Già ce ne sono parecchi in giro, per es so di ST che ha prodotto un chip con cpu (core del pentium3 mi pare), gpu, chipset, memoria, decoder mpeg2 ed è attualmene montato nei sedili degli aerei con gli schermi integrati per vedere i dvd.
capitan_crasy
22-09-2006, 15:01
Questo è il passo decisivo verso il TRUSTED COMPUTING,
cioè PALLADIUM : criptare i dati dalla CPU alla GPU, senza
passare per il bus dati.
:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:
Mmmh... una C-GPU così potrebbe dissipare anche 7450 Watts!! :P
Ma ragazzi io nn credo che Intel voglia integrare nella CPU una GPU tipo un doppio X1900XTX Crossfire... presumibilmente sarà un chip poco potente...
Cmq l'idea sicuramente nn è nuova... bisogna vedere quali siano effettivamente i pro e i contro di una cosa del genere.
Deschutes
22-09-2006, 19:24
Questo è il passo decisivo verso il TRUSTED COMPUTING,
cioè PALLADIUM : criptare i dati dalla CPU alla GPU, senza
passare per il bus dati.
Grrrrrrr :(((((((((((((
Tecnologicamente mi sembra un passo avanti, ma se poi dentro ci mettono pure ste bastardate non va per niente bene!!!!!!!!!!!!!
Ciau
MiKeLezZ
22-09-2006, 20:09
AMD ha acquisito ATI perchè aveva il sentore di questa mossa di Intel?
OPPURE
Intel ha fatto questa mossa dopo aver analizzato l'acquisizione AMD di ATI?
...più che altro mi chiedo quali saranno le prossime mosse di nVidia perché se le prospettive sono queste rischia di restare fuori non avendo una CPU alla quale integrarsi(sempre che intel nn le tenda una mano). Si potrebbe però ipotizzare un accorpamento di Via(che fa le CPU e che vede allontanarsi un partner importante come AMD), a nVidia e allora il panorama C-GPU vedrebbe scendere nell'arena un terzo concorrente abbastanza agguerrito...ma è fanta tecnologia credo :D
MiKeLezZ, tutti si stanno muovendo in questa direzione.
prossimamente, a mio parere, non si avranno CPU/GPU/ecc, ma un unico chip che intregrera' tutto:
multi cpu
gpu
apu e ppu (audio processing unit, phisical processing unit che poi faranno parte intrinseca delle pipeline della gpu)
north bridge
south bridge
controller HDD/USB e per connessioni wire/wireless
probabilmente una caches L3 di grandi dimensioni (ben piu' di 16MB) per bufferizzare dalla ram.
in unltimo un BIOS (con eprom) per inizializzare il tutto (il che rendera' praticamente impossibile qualsiasi magheggio sulla potenzialita' del chip.
in pratica un solo chip che essenzialmente svolgera' tutte le funzioni di un PC.
in questo modo le mobo serviranno solo per dare supporto ai connettori per periferiche esterne ed eventuali schede di espansione (anche se il wireless USB permetterebbe l'uso di periferiche a distanza).
oggi paghi 300 euro una cpu media
80 euro una decente mobo
70 euro una gpu entry livel
domani pagherai 400 euro una cpu media e 10 euro una mobo adatta ad ospitarla, ed il tutto ti permettera' di operare con le medesime prestazioni (se non maggiori).
abbinando 2 cpu raddoppi non solo la potenza di calcolo pura, ma anche quella grafica e l'espandibilita'...
in pratica si sta' riprendendo il concetto dell'efficeon.
AMD ha anticipato le mosse acquistando ATi ed il suo know-how, intel ha gia' parecchio di suo, e le serve solo incrementare la divisione grafica.
...a questo (http://www.hardware.fr/news/lire/26-09-2006/) indirizzo, c'è un ulteriore approfondimento sulla questione...a mio avviso interessante. Le 4 immagini soprattutto sono davvero esplicative...la direzione ormai sembra presa. In questa prospettiva si possono ipotizzare modelli di unità centrali specificatamente pensati per precisi settori, Es(volutamente forzato nelle proporzioni):
-unità 32 core destinata all'audio: 16 CPU, 8 APU, e li altri 8 core divisi per le restanti unità di calcolo(1GPU, 1FPU, etc etc).
-unità 32 core destinata al mulimedia: 8 CPU, 8 GPU, 8 APU, 2 FPU, e il resto quelli mancanti....etc etc...nn male come prospettiva, soprattutto sul piano puramente prestazionale dovrebbe èsserci un salto enorme rispetto a quello che abbiamo nei PC oggi. Per contro, ma neanche tanto, si prospetta un mutamento radicale del mercato componenti....o meglio un terremoto che appiederà diversa gente credo.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.