PDA

View Full Version : I controller grafici integrati scompariranno entro il 2012


Redazione di Hardware Upg
12-05-2009, 11:39
Link alla notizia: http://www.hwupgrade.it/news/skvideo/i-controller-grafici-integrati-scompariranno-entro-il-2012_28950.html

Secondo una analisi portata avanti da Jon Peddie Research, i controller grafici integrati potrebbero scomparire nel giro di pochi anni, assorbiti dal processore

Click sul link per visualizzare la notizia.

Severnaya
12-05-2009, 11:43
ma nn è che scompariranno, passeranno dalla scheda madre alla cpu per chi vorrà


mi fa venire in mente che in teoria una scheda madre dovrebbe costare meno senza IGP

s0nnyd3marco
12-05-2009, 11:46
ma nn è che scompariranno, passeranno dalla scheda madre alla cpu per chi vorrà


mi fa venire in mente che in teoria una scheda madre dovrebbe costare meno senza IGP

Concordo, spero solo che chi vorra cmq una scheda video discreta non sia costretto a comperarsi un processore con scheda video integrata.
Cmq secondo me, il fatto di integrare la scheda video nella cpu è dovuta alla sempre maggiore quota di mercato dei notebook e soluzioni mobile in generale.

supermauri83
12-05-2009, 11:50
ma poi per dissipare il processore che serve? nei minipc sec me sarà un bel problema.

JohnPetrucci
12-05-2009, 12:01
Infatti non scompare nulla vengono solo inserite all'interno della cpu anzichè sulla scheda madre, come detto sopra, devo dire che l'unica nota dolente è il fatto che i chip grafici integrati hanno scarse prestazioni in ambito 3d impegnativo, e questo ha contribuito alla situazione attuale del mercato gaming pc che via via sta morendo non solo per la forte concorrenza delle console ma soprattutto perchè queste vga integrate non reggono neanche i giochi di 3 anni fa e detengono la più grossa fetta di mercato di vga su pc.
Alla fine sono soprattutto le integrate Intel che hanno determinato maggiormente questa situazione poco felice per il gaming pc, che di sicuro è un boomerang anche per Intel, perchè non ha senso prendere quad core potenti con vga integrate in macchine da supermercato, ha più senso un pc dektop o notebook con cpu economiche + una console per giocare.
Speriamo che Amd con il suo Fusion renda tale accoppiata cpu+gpu decente(e sono fiducioso in merito) come fa d'altronde Nvidia con le sue integrate, così se non altro ci sarà un motivo in più per scegliere AMD.
Da Intel invece mi attendo integrate indecenti come al solito, qualunque sia la loro collocazione.

Freeskis
12-05-2009, 12:03
solo io noto una certa somiglianza con la storia dei co-processori matematici ? :stordita:

enjoymarco
12-05-2009, 12:03
mh.. pensavo che AMD con Fusion fosse temporalmente in vantaggio rispetto alla controparte Intel, viste le continue notizie filtranti da parecchio tempo a questa parte, ed invece cosa leggo? AMD Q2 2011 e Intel Q4 2009: cosa è accaduto nel frattempo?

TRF83
12-05-2009, 12:04
@Severnaya: è vero..le mobo dovrebbero costare meno, senza IGP, ma..se sarà nel processore..pagherai di più quest'ultimo, quindi la sostanza non cambia molto! Anzi..in ambiente desktop (la grafica sulla cpu arriverà anche qui..), così ti ritrovi a pagare la scheda grafica ogni volta che vuoi aggiornare anche la sola CPU.. Non so perchè, ma resterò fedele allo schema classico con cpu e gpu separate. Su notebook, però (dove l'upgrade di cpu è molto meno frequente), se la cosa porterà a maggior efficienza..ben venga!

s12a
12-05-2009, 12:05
Il gaming non e` tutto, ed il mondo dei pc non ruota attorno ad esso.
In molti casi (la maggior parte scondo me) puo` essere utile avere un processore potente senza avere la necessita` di montare una scheda video altrettanto potente.

In ogni caso non riesco a vedere gli esatti vantaggi della IGP integrata nel processore.
Quello che si toglie da una parte (in costi) lo si aggiunge dall'altra.

coschizza
12-05-2009, 12:07
mh.. pensavo che AMD con Fusion fosse temporalmente in vantaggio rispetto alla controparte Intel, viste le continue notizie filtranti da parecchio tempo a questa parte, ed invece cosa leggo? AMD Q2 2011 e Intel Q4 2009: cosa è accaduto nel frattempo?


cosa è accaduto nel frattempo?

L'AMD è quasi fallita, con tutti i "problemi" che quest puo comportare

Severnaya
12-05-2009, 12:09
@TRF83

bhe io confido che ci saranno modelli senza IGP integrata nel processore così da dare libera scelta a chi vuole una soluzione CPU+GPU a chi invece sceglie di avere tutto integrato nel processore, anch'io sono per CPu e GPU separate

JohnPetrucci
12-05-2009, 12:14
Il gaming non e` tutto, ed il mondo dei pc non ruota attorno ad esso.
In molti casi (la maggior parte scondo me) puo` essere utile avere un processore potente senza avere la necessita` di montare una scheda video altrettanto potente.

In ogni caso non riesco a vedere gli esatti vantaggi della IGP integrata nel processore.
Quello che si toglie da una parte (in costi) lo si aggiunge dall'altra.
Il gaming non è tutto certamente, ma chi ne è appassionato è anche chi spende cifre importanti in configurazioni hardware in genere, portanto soldi a Intel stessa.
Basterebbe fare delle integrate decenti come AMD e NVIDIA, mica tanto da parte di Intel.
Poi è ovvio che ognuno può prendersi anche cpu potenti con vga integrate da medioevo, ma se ci fai ad esempio modellazione 3d(che non è gaming) non arrivi lontano....;)

Lotharius
12-05-2009, 12:21
Tutto ciò non mi sembra altro che la naturale evoluzione di un componente. Un po' come è successo per il controller della memoria, fra poco toccherà anche al controller grafico: ovvio che integrando nella CPU il controller grafico, la necessità di un chipset con IGP viene meno. La scelta quindi sarà fra grafica integrata nella CPU e grafica discreta. Il che è un gran vantaggio sia a livello di costi di produzione di motherboard a singolo chip che a livello di implementazione di sistemi più compatti.
Tanto si sa che chi vuole giocare con il PC si compra per forza una scheda grafica discreta, mentre chi usa il pc per lavoro e poco più, oppure come media center, si può accontentare una grafica integrata...

Dott.Wisem
12-05-2009, 12:24
Premetto che sono ignorante di ingegneria elettronica, ma qualcuno potrebbe spiegarmi i vantaggi concreti, per l'utente, dello spostamento di un processore IGP dal chipset della scheda madre alla CPU? Ok, ci saranno minori latenze nella comunicazione fra CPU e IGP, ma l'aumento di circuiteria della CPU non porterà a maggiori surriscaldamenti (a parità di processo produttivo), da cui, minori possibilità di salire di clock e maggiori probabilità di rotture?
E se salta qualche circuito nella parte IGP, e quindi il computer non parte più, come farò ad accorgermi se è la parte CPU o la parte IGP ad essere difettata? Potrò, in questo caso, aggiungere una scheda video esterna e continuare ad usare la parte CPU sana?
Certo è che per i produttori, a livello di fabbriche, usare un'unica catena produttiva per realizzare CPU e IGP insieme, sarà un risparmio in termini economici, o sbaglio?

TheDarkAngel
12-05-2009, 12:24
Alla fine tutto sarà un SoC anche su piattaforma x86, questo non è altro che l'ennesimo passo alla realizzazione

Jackari
12-05-2009, 12:28
in effetti non ci sarà nessun vantaggio nel passaggio a cpu+gpu
integrate tranne per i produttori (intel in primis) che sbaraglieranno la concorrenza sempre più agguerrita (nvidia infatti perderà il mercato delle vga integrate con la mobo e forse anche, qualora questa soluzioni siano all'altezza anche quello delle vga discrete economiche).

frncr
12-05-2009, 12:30
In ogni caso non riesco a vedere gli esatti vantaggi della IGP integrata nel processore.
Il vantaggio è di tipo commerciale, per il produttore. Quando Intel vende una CPU, c'è la possibilità che il sistema dove verrà installata utilizzi un chip-set non Intel e/o una GPU non Intel, perciò la stessa Intel deve spartirsi la torta (il prezzo pagato dal consumatore) con altri soggetti. Se invece riesce a portare tutto o quasi tutto a bordo della sua CPU, gli altri soggetti del mercato sono tagliati fuori e la sua fetta di torta aumenta. Credo che ad Intel non dispiacerebbe fare le scarpe a Nvidia, che si permette di erodere un po' del suo mercato dei chip-set; mentre AMD dal canto suo ha comprato ATI.
Tecnicamente, il vantaggio può essere quello della densità di integrazione, che può essere interessante in certi settori. In pratica l'obiettivo finale può essere il SOC (system-on-chip), direzione ad esempio presa da Intel con i futuri Atom. Le soluzioni ad alte prestazioni continueranno ad utilizzare componenti discreti.

Redvex
12-05-2009, 12:33
Io mi domando quanto scalderà il package cpu+gpu.

Speedy L\'originale
12-05-2009, 12:35
Vedo un'altro duro colpaccio che subirà nVidia, Intel non gli concede la licenza per le sue attuali CPU Top di gamma, X58, AMD non gli permette di realizzare Chipset nel mercato server che è molto remunerativo, ora pure nel settore dove nVidia ha maggiori guadagni va a prendere un'altro colpaccio.

Se io che NON gioco vado a prendermi una cpu amd o intel che hanno già la vga integrata e non trovo il chipset nvidia x la mia cpu o preferisco puntare alla piattaforma completa di amd o intel, chi me lo fà fare di puntare ad nVdia?

Vedo un futuro molto nero x nvidia, c'è CUDA, ma chissà se e come andrà avanti..
Pure contro CUDA c'è Intel con Larabee, manca solo AMD, poi nvidia può pure pensare a cambiare settore..

Nell'unico settore dove nvidia è famosa, cioè nelle VGA di fascia alta si deve scontrare x ora solo con AMD che gli riduce tantissimo i margini di guadagno, ad AMD un HD4800 costa 1/3 che a nvidia x i suoi GT200..

capitan_crasy
12-05-2009, 13:14
mh.. pensavo che AMD con Fusion fosse temporalmente in vantaggio rispetto alla controparte Intel, viste le continue notizie filtranti da parecchio tempo a questa parte, ed invece cosa leggo? AMD Q2 2011 e Intel Q4 2009: cosa è accaduto nel frattempo?

Sembra che AMD abbia abbandonato l'idea di mettere GPU+CPU in due componenti separati e sta preparando APU (Accelerated Processing Unit) composte da CPU+GPU in un solo elemento.
La APU "Llano" pensata per il mercato mobile/mainstream desktop avrà con tutta probabilità l'architettura Bulldozer unita ad una nuova generazione di GPU ATI DX11; essa sarà costruita a 32nm e avrà il pieno supporto alle DDR3 @ 1600Mhz.
Rimane il fatto che nel 2011 ci sarà anche il core Orochi, vale a dire una classica CPU enthusiast desktop basato su Bulldozer senza GPU.

lucusta
12-05-2009, 13:17
frncr, il tuo discorso non fila a dovere: chi produce chipset per intel paga royalty ad intel, quindi intel guadagna anche con gli altri...
ad oggi, senza la GPU discreta dintel, il suo settore si racchiudeva, nella grafica, esclusivamente alle IGP nei chipset; domani, integrando queste nella CPU, avra' economie di scala, e comunque l'espandibilita' su IGP discrete.

i vantaggi per il consumatore sono molteplici:

il costo dell'IGP viene spalmato sul 100% delle CPU, e non sull'67%, quindi chi deve acquistare un PC "normale" paghera' meno l'accoppiata CPU/IPG;

i software saranno piu' compatibili con l'HW perche' questo sara' tutto uguale, il che portera' a PC piu' stabili;

sara' piu' facili scriverli, perche' si sfrutteranno caratterstiche standard, almeno per i due produttori di CPU+IGP

sara' piu' facile l'aggiornamento, perche' driver CPU (anche se raramente vengono aggiornati), driver chipset, driver IGP vengono aggiornati all'unisono, facendo parte effettivamente dello stesso chip;

saranno piu' economiche le schede madri, perche' com molte meno linee elettriche;

il costo di una CPU con IGP integrata sara' leggermente piu' alto, ma usera' un solo PCB per il chip, invece che uno per il chip ed uno per il chipset con IGP, quindi il costo di produzione cala e calera' relativamente anche il costo dell'HW.

DKDIB
12-05-2009, 13:36
Non vedo a chi dovrebbe interessare una CPU senza scheda grafica integrata... a volte penso di essere l'unico pirla che il prossimo desktop lo prendera' (ancora) all-AMD solo per l'Hybrid CrossFireX (e per il fatto che non saro' piu' costretto a prendere il primo Phenom :p )?

Non so voi, ma io trovo perfetto il fatto di avere una scheda grafica discreta spenta quando guardo un film o navigo, lasciando che consumi, scaldi e faccia casino solo quando mi metto a giocare od apro un editor grafico 3D.
Senza contare il vantaggio prestazionale, per quanto leggero, dato da una HD 3300 (o la corrispettiva HD 4000, quando usciranno i nuovi chipset).


Mi sa che dovremo aspettare Intel per veder spopolare queste soluzioni, anche se la concorrenza c'era gia' arrivata da un pezzo.

bLaCkMeTaL
12-05-2009, 14:17
visto che larrabee è, essenzialmente, di natura X86, per intel, integrarne una parte con le funzioni di base all'interno della cpu, non sembra malaccio come idea.
Il mercato gaming e quello delle schede pci-ex imho non ne risentirà, anzi forse sarà proprio il contrario!
La cosa interessante invece secondo me è:

stabilire un dialogo diretto tra gpu integrata e gpu su scheda esterna in modo da farle lavorare in concerto (tipo SLi per intenderci).



potere decidere di disabilitare quasi completamente i transistor della parte grafica integrata nella cpu (se non utilizzati ed in presenza di una scheda grafica esterna).

Mercuri0
12-05-2009, 14:20
mh.. pensavo che AMD con Fusion fosse temporalmente in vantaggio rispetto alla controparte Intel, viste le continue notizie filtranti da parecchio tempo a questa parte, ed invece cosa leggo? AMD Q2 2011 e Intel Q4 2009: cosa è accaduto nel frattempo?
lntel & AMD si sono rese conto che queste soluzioni hanno senso solo a 32nm, quindi usciranno quando le aziende tirerranno fuori i 32nm.

Sembra che AMD abbia abbandonato l'idea di mettere GPU+CPU in due componenti separati e sta preparando APU (Accelerated Processing Unit) composte da CPU+GPU in un solo elemento.

Nah, "APU" è solo un nome commerciale. Anche se ci sta che mentre il "Fusion" di AMD possa essere usato anche per conti GPGPU, il "Fusion" di lntel no, almeno per i tempi prossimi.

Sta tutto come AMD si gioca le sue carte con il marketing, e come se la cava Bulldozer nei confronti di Sandy Bridge.

Mercuri0
12-05-2009, 14:25
visto che larrabee è, essenzialmente, di natura X86, per intel, integrarne una parte con le funzioni di base all'interno della cpu, non sembra malaccio come idea.

Ehi, guarda che nei primi "Fusion" di lntel Larrabee non c'entra neanche a ficcarcelo. Saranno i soliti IGP lntel, forse per grazia divina costruiti con un processo produttivo più recente.


Pure contro CUDA c'è Intel con Larabee, manca solo AMD
Ah... lntel con Larrabee c'è già (me l'ero perso, quando è uscito?), mentre ATI che è stata la prima a far conti GPGPU (F@H sulle 1xxx) ancora manca :rolleyes:

Vero è, che tuttora la prima preoccupazione di ATI è fare GPU per accelerare i videogiochi, mentre nVidia sta spingendo sul GPGPU in maniera più aggressiva.

Dott.Wisem
12-05-2009, 14:30
i vantaggi per il consumatore sono molteplici:

il costo dell'IGP viene spalmato sul 100% delle CPU, e non sull'67%, quindi chi deve acquistare un PC "normale" paghera' meno l'accoppiata CPU/IPG;O magari costeranno uguale ma il produttore ci guadagnerà di più... :p Tutto dipende da quanto sarà agguerrita la concorrenza, e da come risponderà il mercato.

i software saranno piu' compatibili con l'HW perche' questo sara' tutto uguale, il che portera' a PC piu' stabili;

sara' piu' facili scriverli, perche' si sfrutteranno caratterstiche standard, almeno per i due produttori di CPU+IGP:confused: Queste due non le ho capite... Non vedo perché un software dovrebbe essere più compatibile e stabile semplicemente perché gira su una CPU con IGP integrata... A meno di bug hardware gravi, sono i driver che determinano la stabilità di una periferica.
Secondariamente, per il programmatore non cambierà un tubo. Sfruttava le DirectX o le OpenGL prima, e continuerà a farlo dopo, esattamente allo stesso modo. Se poi una feature sia realizzata correttamente o meno, dipende ancora una volta dalla bontà dei driver, non dal fatto che la sezione video sia integrata o meno nella CPU...

Severnaya
12-05-2009, 15:07
lui nn intende perché la IGP è integrata ma dato che si avranno acceleratori grafici "tutti uguali" e quindi un'architettura standard i problemi di stabilità dovrebbero diminuire


a me preoccupa invece un abbassamento della qualità complessiva se dovesse venire a mancare nvidia e quindi un abbassamento della competizione

Mercuri0
12-05-2009, 15:13
lui nn intende perché la IGP è integrata ma dato che si avranno acceleratori grafici "tutti uguali" e quindi un'architettura standard i problemi di stabilità dovrebbero diminuire

a me preoccupa invece un abbassamento della qualità complessiva se dovesse venire a mancare nvidia e quindi un abbassamento della competizione
Infatti. Deh, faremo girare giusto Tetris, ma vuoi mettere la stabilità?

Se poi è del livello "Directx10 su IGP lntel" forse anche Tetris è un'utopia.

capitan_crasy
12-05-2009, 15:25
Nah, "APU" è solo un nome commerciale. Anche se ci sta che mentre il "Fusion" di AMD possa essere usato anche per conti GPGPU, il "Fusion" di lntel no, almeno per i tempi prossimi.

Sta tutto come AMD si gioca le sue carte con il marketing, e come se la cava Bulldozer nei confronti di Sandy Bridge.

Non è un "semplice" nome commerciale, AMD identifica Llano come APU e non come CPU o CPU+GPU...
Con l'architettura Bulldozer e la tecnologia M-Space AMD sarà in grado di aggiungere core CPU/GPU senza riprogettare o modificare l'architettura con tutti i vantaggi del caso...

nudo_conlemani_inTasca
12-05-2009, 15:38
Ma allora se nel 2012, grazie all'integrazione della grafica dentro il processore (x AMD noto come progetto Fusion) e inoltre la riduzione del processo produttivo permetterà di integrare pure i controller
sia north-southbrige (insoma, un monoblocco MCP come era nF4, abbattimento costi realizzativi)
come si chiameranno queste nuove unità?

APU, G-CPU.. che razza di nome gli daranno per identificare questo nuovo tipo di integrazione di Intel e AMD?

Mah.. vedremo i benefici e costi/assorbimenti su che livelli si attesteranno, poi si tireranno conclusioni.

bye.

Dott.Wisem
12-05-2009, 15:42
lui nn intende perché la IGP è integrata ma dato che si avranno acceleratori grafici "tutti uguali" e quindi un'architettura standard i problemi di stabilità dovrebbero diminuireMa questo ragionamento lascia intendere un utopistico scenario in cui le schede video dedicate non esisteranno più... Ma vammela a fare una CPU con GPU integrata alla pari di una nVidia GTX280 con memorie GDDR5 dedicate... :p
Quindi, quali sarebbero i problemi di stabilità risolti? Chi vorrà fare videogiochi sul PC, per ovvi motivi continuerà ad usare schede video dedicate. Per tutti gli altri, le attuali soluzioni CPU + IGP su chipset scheda madre non portano problemi di nessun tipo, quindi continuo a non recepire il senso di quel discorso sulla stabilità, compatibilità, facilità di programmazione(?), e quant'altro...
Io penso che gli unici ad avvantaggiarsi concretamente di questa scelta siano essenzialmente i produttori di CPU (Intel e AMD). Per gli utenti non cambierà un tubo. Al massimo potremmo beneficiare di prezzi ridotti (nel caso in cui questa tecnologia dovesse prendere piede sul mercato).

Severnaya
12-05-2009, 16:49
io interpretavo le sue parole


nn ho idea se corrisponderebbe a verità in uno scenario del genere, io di programmazione nn ci capisco un h

h4xor 1701
12-05-2009, 17:03
bhà......secondo me le migliori VGA rimarranno quelle dedicate, quelle integrate nella CPU sostituiranno semplicemente quelle che attualmente sono integrate all'interno della Scheda Madre.

Speedy L\'originale
12-05-2009, 17:53
Ah... lntel con Larrabee c'è già (me l'ero perso, quando è uscito?), mentre ATI che è stata la prima a far conti GPGPU (F@H sulle 1xxx) ancora manca :rolleyes:

Vero è, che tuttora la prima preoccupazione di ATI è fare GPU per accelerare i videogiochi, mentre nVidia sta spingendo sul GPGPU in maniera più aggressiva.

Ammetto il mio errore, ma ai fini personali, quindi non alla mera ricerca di cose che possono essere utili a tutti, ATI/AMD tutt'ora cos'ha in cantiere?

Intel ha larrabee, nvidia ha CUDA, AMD cos'ha?

Preciso che l'utilizzo di F@H sia una cosa molto lodevole, specie quando riguarda la ricerca medica e pure tutti gli altri utilizzi, ma personalmente ora il F@H non migliora alcun tipo d'elaborazione.

Mentre sul resto del discorso, sul futuro prossimo di nVidia cosa ne pensi?

Mercuri0
12-05-2009, 18:48
Non è un "semplice" nome commerciale, AMD identifica Llano come APU e non come CPU o CPU+GPU...
Con l'architettura Bulldozer e la tecnologia M-Space AMD sarà in grado di aggiungere core CPU/GPU senza riprogettare o modificare l'architettura con tutti i vantaggi del caso...
Vantaggi per loro, lato utente vedremo sempre CPU+IGP. Almeno per le prime iterazioni.

Però se AMD tira fuori un demo simpatico per il Fusion, che sfrutti per i conti e grafica sia CPU che GPU, può farsi buona pubblicità.

Ammetto il mio errore, ma ai fini personali, quindi non alla mera ricerca di cose che possono essere utili a tutti, ATI/AMD tutt'ora cos'ha in cantiere?

Intel ha larrabee, nvidia ha CUDA, AMD cos'ha?

F@H era solo un esempio di GPGPU su larga scala. il "CUDA" di AMD si chiama Stream ed ecco il sito con SDK, librerie, demo e tutto
http://ati.amd.com/technology/streamcomputing/
Ti sei perso che AMD ha anche rilasciato uno "Stream Processor" dedicato. Questa dovrebbe essere la seconda edizione
http://www.hwupgrade.it/news/periferiche/il-nuovo-firestream-9250-di-amd-supera-la-barriera-del-teraflop_25654.html

e AMD ha collaborato con nVidia (e altri) alla stesura delle OpenCL, di cui entro fine anno dovremmo avere i driver da entrambi i produttori. I programmi scritti per OpenCL gireranno indifferentemente per ATi/nVidia/Larrabee


Mentre sul resto del discorso, sul futuro prossimo di nVidia cosa ne pensi?
nVidia è molto aggressiva sul lato CUDA, sta cercando di prendere posizione in quel settore prima dell'arrivo di Larrabee. Però se esagerano rischiano di "dimenticarsi" dei videogiochi per una generazione o due di GPU.

Lato IGP è un bel guaio per loro! Chissà se riusciranno a tirar fuori un procio x86, o se gli ARM (e quindi il suo Tegra) prenderanno piede in qualche mercato....

blade9722
12-05-2009, 19:08
Vedo un'altro duro colpaccio che subirà nVidia, Intel non gli concede la licenza per le sue attuali CPU Top di gamma, X58, AMD non gli permette di realizzare Chipset nel mercato server che è molto remunerativo, ora pure nel settore dove nVidia ha maggiori guadagni va a prendere un'altro colpaccio.


Questa non l'ho capita, i maggiori guadagni Nvidia li ha nelle GPU discrete, e queste non verranno intaccate dal mercato delle GPU integrate per desktop mainstream.


Se io che NON gioco vado a prendermi una cpu amd o intel che hanno già la vga integrata e non trovo il chipset nvidia x la mia cpu o preferisco puntare alla piattaforma completa di amd o intel, chi me lo fà fare di puntare ad nVdia?

Vedo un futuro molto nero x nvidia, c'è CUDA, ma chissà se e come andrà avanti..
Pure contro CUDA c'è Intel con Larabee, manca solo AMD, poi nvidia può pure pensare a cambiare settore..

Nell'unico settore dove nvidia è famosa, cioè nelle VGA di fascia alta si deve scontrare x ora solo con AMD che gli riduce tantissimo i margini di guadagno, ad AMD un HD4800 costa 1/3 che a nvidia x i suoi GT200..

Da come parli sembra proprio che tu abbia qualcosa di personale contro Nvidia. Nelle VGA discrete di fascia media e alta la casa di Santa Clara detiene tutt'ora due terzi del mercato, e questo nonostante le ultime uscite Ati siano particolarmente allettanti.

capitan_crasy
12-05-2009, 19:44
Però se AMD tira fuori un demo simpatico per il Fusion, che sfrutti per i conti e grafica sia CPU che GPU, può farsi buona pubblicità.




Simpatico?:wtf: :D
Prima però bisogna completare l'architettura Bulldozer (la quale bisogna aggiungere le istruzioni Intel AVX), individuare quale GPU utilizzare per Fusion (RV8xx/Rv9xx o addirittura una nuova GPU inedita); per finire utilizzare la produzione 32nm SOI...
Per vedere qualcosa di funzionante bisogna aspettare almeno fino metà del 2010, sperando (e pregando:rolleyes:) che le OpenCL abbiano preso piede...

Speedy L\'originale
12-05-2009, 20:00
Questa non l'ho capita, i maggiori guadagni Nvidia li ha nelle GPU discrete, e queste non verranno intaccate dal mercato delle GPU integrate per desktop mainstream.

è proprio questo il suo problema, le sk. video che fanno volumi sono quelle di fascia bassa e media, sicuramente non le sk. video top di gamma, credete che nvidia guadagni di + da una misera 9600GT o dalle super potenti, super pompate GTX 295 che venderà a pochi fortunati?


Da come parli sembra proprio che tu abbia qualcosa di personale contro Nvidia. Nelle VGA discrete di fascia media e alta la casa di Santa Clara detiene tutt'ora due terzi del mercato, e questo nonostante le ultime uscite Ati siano particolarmente allettanti.

Personalmente non ho nulla contra nvidia, vedo solo un futuro non troppo roseo x nvidia, se gli tolgono la fascia bassa, quella dove si vende/guadagna di + su cosa vive? Sulle pochissime VGA super costose di fascia altissima?
Anzi pure lì ora i margini sono limitati visti la forte concorrenza posta da ati attualmente.

A me non pare che nvidia abbia in mano i 2/3 delle vga discrete, mi pare che vi sia quasi un pareggio, tipo un 55% nVidia - 45% Ati, quindi non mi sembra cosi avanti.

un' azienda come nvidia se vive vive più grazie alle sue 9400/9500gt che costano poco, dove singolarmente si guadagna pure non eccessivamente, ma di queste se ne vendono tantissime, piuttosto che guadagnare tanto su sk. video x pochi..
Te preferiresti guadagnare 10€ x scheda su 10.000 schede vendute che vendi o guadagnarne 50€ x scheda su 1.000?

Le VGA di fascia alta sono quelle + costose da produrre e in proporzione dove ci sono guadagni inferiori, si guadagna molto d + sulle fascie inferiore, dove si fà volume, ma se la fascia entry level è già integrata nella cpu li nVdia può perdere una buona fonte di guadagno.

Le VGA di fascia altissima, supercostose, servono + x farsi il nome che x guadagnare.

Personalmente vedo questa situazione:

Intel che ha ca l'80% del mercato CPU, chipset e un buon 40-50% del mercato VGA, col futuro Larrabee magari un nuovo mercato.

Amd ha in mano ca il 20% del mercato CPU, chipset e un 20% del mercato VGA, solo indietro sul mercato GPGPU, ma che va a minare i guadagni di nvidia visto che riesce a fare ottimi prezzi a costi accessibili a tutti.

nVidia ha in mano il 25% del mercato VGA, superiore a AMD, ma non produce CPU, nel mercato Chipset intel e amd la stanno limitando, vedi caso X58 e AMD nel fronte Server e ha in mano solo CUDA che riesce x ora a vendere molto bene, ma all'atto pratico ora è tutto da vedere se riuscirà a ritagliarsi una buona fetta di mercato nel GPGPU, per ora ha contro un colosso come Intel e in futuro pure AMD.

Se a nvidia togli la fascia dove si fanno più soldi, cioè la fascia bassa a salire, togli il mercato chipset, cosa resta? CUDA, ma venderà davvero?
Sarà davvero un nuovo mercato da lauti guadagni o altro?

AMD riesci a produrre GPU equivalenti ad un costo molto inferiore e che quindi pure nella fascia media e alta viene limitata nel guadagno.

lucusta
12-05-2009, 20:41
Ma questo ragionamento lascia intendere un utopistico scenario in cui le schede video dedicate non esisteranno più... Ma vammela a fare una CPU con GPU integrata alla pari di una nVidia GTX280 con memorie GDDR5 dedicate... :p
Quindi, quali sarebbero i problemi di stabilità risolti? Chi vorrà fare videogiochi sul PC, per ovvi motivi continuerà ad usare schede video dedicate. Per tutti gli altri, le attuali soluzioni CPU + IGP su chipset scheda madre non portano problemi di nessun tipo, quindi continuo a non recepire il senso di quel discorso sulla stabilità, compatibilità, facilità di programmazione(?), e quant'altro...
Io penso che gli unici ad avvantaggiarsi concretamente di questa scelta siano essenzialmente i produttori di CPU (Intel e AMD). Per gli utenti non cambierà un tubo. Al massimo potremmo beneficiare di prezzi ridotti (nel caso in cui questa tecnologia dovesse prendere piede sul mercato).

no, lascia intendere che al di la' delle schede video discrete i PC seguiranno 2 standard: intel o AMD
quindi i software saranno piu' compatibili, perche' esistono solo 2 strade, perche' comunque la CPU integrera' la GPU, e, al di fuori dei giochi o di altri pochi ambiti, sara' quella ad essere principalmente sfruttata in 2D e nella maggior parte dei piccoli lavori..
per quanto riguarda i driver, a meno di immani stupidagini, la semplificazione e' decisamente elevata, dovendo farli principalmente per una soluzione...

esempio: io, pur avendo una infima x300 per questo PC, il suo lavoro semplicelo fa' bene, ma ho avuto diversi problemi con gli ultimi driver 9.3 per quanto riguarda un fastidioso problema di sfarfallamento sul media center, e sono dovuto tornare a ritroso fino agli 8.1...
queste problematiche sarebbero di gran lunga minori, se esistessero solo 2 HW ben definiti e dei driver, che alla fine, relase dopo relase, eliminano i bug;
i software si adeguerebbero all'hardware, e l'HW si adegua a supportare al meglio l'OS con driver che seguono alla lettere le tecnologie delle API messe a disposizione da questo, e tanti problemi non si avrebbero piu'.

rimangono uguali ad adesso per quegli aspetti di nichia (giochi e sfruttamento delle GP-GPU discrete), ma sono relativamente una bassa percentuale sul lavoro svolto da tutti i PC.

in piu' l'aggiornamento dell'HW base avrebbe una cadenza univoca (GPU e CPU) sia per i clienti, sia per i produttori, evitando decine di chippetti grafici ogni 6 mesi...

Dott.Wisem
12-05-2009, 23:41
no, lascia intendere che al di la' delle schede video discrete i PC seguiranno 2 standard: intel o AMD
quindi i software saranno piu' compatibili, perche' esistono solo 2 strade, perche' comunque la CPU integrera' la GPU, e, al di fuori dei giochi o di altri pochi ambiti, sara' quella ad essere principalmente sfruttata in 2D e nella maggior parte dei piccoli lavori..
per quanto riguarda i driver, a meno di immani stupidagini, la semplificazione e' decisamente elevata, dovendo farli principalmente per una soluzione...

esempio: io, pur avendo una infima x300 per questo PC, il suo lavoro semplicelo fa' bene, ma ho avuto diversi problemi con gli ultimi driver 9.3 per quanto riguarda un fastidioso problema di sfarfallamento sul media center, e sono dovuto tornare a ritroso fino agli 8.1...
queste problematiche sarebbero di gran lunga minori, se esistessero solo 2 HW ben definiti e dei driver, che alla fine, relase dopo relase, eliminano i bug;
i software si adeguerebbero all'hardware, e l'HW si adegua a supportare al meglio l'OS con driver che seguono alla lettere le tecnologie delle API messe a disposizione da questo, e tanti problemi non si avrebbero piu'.

rimangono uguali ad adesso per quegli aspetti di nichia (giochi e sfruttamento delle GP-GPU discrete), ma sono relativamente una bassa percentuale sul lavoro svolto da tutti i PC.

in piu' l'aggiornamento dell'HW base avrebbe una cadenza univoca (GPU e CPU) sia per i clienti, sia per i produttori, evitando decine di chippetti grafici ogni 6 mesi...Mah... Non sono molto d'accordo. Secondo me, se le schede grafiche IGP scompariranno dalle mainboard per approdare direttamente sulle CPU, ciò non significa automaticamente che per tanto tempo non ci saranno upgrade hardware della sezione grafica. Anzi, si creerà ancora più confusione nella denominazione dei modelli di CPU, in seguito all'uscita di evoluzioni della sezione GPU. Esempio (di fantasia):

- 05/2009: esce la CPU Intel Core2Duo G9400. La CPU è a 3GHz, con 6MB di cache L2. La GPU è una Intel G31.

- 12/2009: esce la CPU Intel Core2Duo G9402. La CPU è identica alla precedente, ma la GPU è una Intel G41, che ha un numero più elevato di unità di shading ed altre migliorie circuitali.

Magari i driver della nuova Intel G41 daranno un po' di problemi con alcuni software e introdurranno qualche ulteriore bug relativi alla serie precedente di GPU, così come accade ora con i driver delle schede video discrete...

Insomma, l'esempio era per far capire che mettere CPU e GPU insieme, non è che risolva tutti i problemi del mondo, in ambito driver. Né rende la vita più facile agli sviluppatori, essendo che questi ultimi, tranne alcune rare eccezioni, non sfruttano direttamente le feature di una particolare GPU, ma si limitano ad utilizzare le interfacce di programmazione (API) fornite dal sistema operativo, come DirectX, OpenGL e GDI...

Che poi, alla fine, i produttori principali di GPU integrate su mainboard oggi sono Intel, AMD e nVidia. Un domani ci potrebbe essere (ma non è detto) la debacle di nVidia, ma comunque rimarrebbero 2 grandi produttori concorrenti che sfruttano tecnologie molto diverse.

pupobiondo
13-05-2009, 10:19
Se questo scenario si realizzerà, prevedo un abbandono delle schede tradizionali discrete e un ritorno dei gloriosi "acceleratori" grafici (come le vecchie Voodoo 1 e 2, per intenderci).
Questo significa che per un uso "office" si potra tranquillamente evitare di montare l'acceleratore, per un utilizzo gaming o modellazione 3D invece, lo stesso entrerà in funzione esclusivamente quando necessario, con ovvi risparmi in termini di consumi e limitando di molto il pericolo di surriscaldamento.
Non capisco poi chi la vede così nera per Nvidia, io invece sono ottimista: Nvidia (che a suo tempo assorbì 3dfx) ha il know how necessario per lavorare sull'opzione acceleratore, e sono convinto che lo stia già facendo.

blade9722
13-05-2009, 11:28
è proprio questo il suo problema, le sk. video che fanno volumi sono quelle di fascia bassa e media, sicuramente non le sk. video top di gamma, credete che nvidia guadagni di + da una misera 9600GT o dalle super potenti, super pompate GTX 295 che venderà a pochi fortunati?


Ed e' qui che non comprendo: Nvidia fattura sulle schede video discrete di qualsiasi fascia, compresa quella "bassa" e "media". Fattura pochissimo sulle soluzioni integrate, dove Intel fa da padrone. L'articolo parla di un declino del mercato delle VGA integrate nel chipset, dove Nvidia fattura poco. Non parla di CPU che sostituiranno le 8500GT.


Personalmente non ho nulla contra nvidia, vedo solo un futuro non troppo roseo x nvidia, se gli tolgono la fascia bassa, quella dove si vende/guadagna di + su cosa vive? Sulle pochissime VGA super costose di fascia altissima?
Anzi pure lì ora i margini sono limitati visti la forte concorrenza posta da ati attualmente.

A me non pare che nvidia abbia in mano i 2/3 delle vga discrete, mi pare che vi sia quasi un pareggio, tipo un 55% nVidia - 45% Ati, quindi non mi sembra cosi avanti.

un' azienda come nvidia se vive vive più grazie alle sue 9400/9500gt che costano poco, dove singolarmente si guadagna pure non eccessivamente, ma di queste se ne vendono tantissime, piuttosto che guadagnare tanto su sk. video x pochi..
Te preferiresti guadagnare 10€ x scheda su 10.000 schede vendute che vendi o guadagnarne 50€ x scheda su 1.000?

Le VGA di fascia alta sono quelle + costose da produrre e in proporzione dove ci sono guadagni inferiori, si guadagna molto d + sulle fascie inferiore, dove si fà volume, ma se la fascia entry level è già integrata nella cpu li nVdia può perdere una buona fonte di guadagno.

Le VGA di fascia altissima, supercostose, servono + x farsi il nome che x guadagnare.

Personalmente vedo questa situazione:

Intel che ha ca l'80% del mercato CPU, chipset e un buon 40-50% del mercato VGA, col futuro Larrabee magari un nuovo mercato.

Amd ha in mano ca il 20% del mercato CPU, chipset e un 20% del mercato VGA, solo indietro sul mercato GPGPU, ma che va a minare i guadagni di nvidia visto che riesce a fare ottimi prezzi a costi accessibili a tutti.

nVidia ha in mano il 25% del mercato VGA, superiore a AMD, ma non produce CPU, nel mercato Chipset intel e amd la stanno limitando, vedi caso X58 e AMD nel fronte Server e ha in mano solo CUDA che riesce x ora a vendere molto bene, ma all'atto pratico ora è tutto da vedere se riuscirà a ritagliarsi una buona fetta di mercato nel GPGPU, per ora ha contro un colosso come Intel e in futuro pure AMD.

Se a nvidia togli la fascia dove si fanno più soldi, cioè la fascia bassa a salire, togli il mercato chipset, cosa resta? CUDA, ma venderà davvero?
Sarà davvero un nuovo mercato da lauti guadagni o altro?

AMD riesci a produrre GPU equivalenti ad un costo molto inferiore e che quindi pure nella fascia media e alta viene limitata nel guadagno.

L'ultimo articolo a riguardo in questo sito sulle GPU discrete parlava di 2/3 del mercato per Nvidia.

Speedy L\'originale
13-05-2009, 12:33
Ed e' qui che non comprendo: Nvidia fattura sulle schede video discrete di qualsiasi fascia, compresa quella "bassa" e "media". Fattura pochissimo sulle soluzioni integrate, dove Intel fa da padrone. L'articolo parla di un declino del mercato delle VGA integrate nel chipset, dove Nvidia fattura poco. Non parla di CPU che sostituiranno le 8500GT.


Se la VGA è integrata nella cpu vai di fatto a togliere parecchio mercato alla fascia bassa, quella dove si fanno maggiori guadagni, si sà che le differenze prestazionali tra una vga integrata e una vga da 30€ non sono poi chissà che cosa, se la vga integrata nella cpu supporterà già la decodifica dei flussi HD, la vga dedicata di fascia bassa anche se avrà "prestazioni" superiore non acrà molto mercato, xkè spendere 30-50€ di + per avere una sk. video che alla fine fà la stessa cosa della vga integrata? Cioè da visualizzatore grafico 2D?

Nel 3d si sà bene che x gestirlo al meglio entrambe le vga sono inadatte.

L'ultimo articolo a riguardo in questo sito sulle GPU discrete parlava di 2/3 del mercato per Nvidia.

Può essere, ma se le fascia bassa perderà colpi x via delle vga integrate intel e di amd non sò quanto andrà avanti con questi risultati..

L'unica cosa su cui nVidia ora si vede bene è CUDA, ma c'è da vedere come sarà accolto dal mercato.

blade9722
13-05-2009, 12:46
Se la VGA è integrata nella cpu vai di fatto a togliere parecchio mercato alla fascia bassa, quella dove si fanno maggiori guadagni, si sà che le differenze prestazionali tra una vga integrata e una vga da 30€ non sono poi chissà che cosa, se la vga integrata nella cpu supporterà già la decodifica dei flussi HD, la vga dedicata di fascia bassa anche se avrà "prestazioni" superiore non acrà molto mercato, xkè spendere 30-50€ di + per avere una sk. video che alla fine fà la stessa cosa della vga integrata? Cioè da visualizzatore grafico 2D?

Beh, ma allo stato attuale esistono gia' soluzioni integrate in grado di gestire flussi HD, quindi se le VGA discrete di fascia bassa non avessero piu' ragione di esistere sarebbero gia' in declino. Di fatto il passaggio della GPU dal chipset alla CPU e' del tutto trasparente. Ci saranno sempre MB con grafica embedded (non basta la GPU integrata nella CPU, servono i connettori, i RAMDAC, etc...) e MB senza.



Nel 3d si sà bene che x gestirlo al meglio entrambe le vga sono inadatte.


Può essere, ma se le fascia bassa perderà colpi x via delle vga integrate intel e di amd non sò quanto andrà avanti con questi risultati..

L'unica cosa su cui nVidia ora si vede bene è CUDA, ma c'è da vedere come sarà accolto dal mercato.

frncr
13-05-2009, 17:32
frncr, il tuo discorso non fila a dovere: chi produce chipset per intel paga royalty ad intel, quindi intel guadagna anche con gli altri...

Non è così semplice. Hai presente il recente caso Atom? Intel ha minacciato un'azione legale contro Nvidia per impedirle di mettere sul mercato un chipset per Atom (la piattaforma ION), sostenendo che l'accordo di licenza non era applicabile. Poi, non essendoci evidentemte fondamento legale in questa posizione, di fronte alla contro-iniziativa legale di Nvidia (che tra l'altro potrebbe pretendere da Intel royalties per varie tecnologie di Nvidia che Intel usa e userà nelle sue GPU integrate), Intel ha dichiarato che comunque non avrebbe venduto agli OEM la CPU Atom se non in kit con il suo vetusto chipset, e nel frattempo ha attuato la sua classica campagna da una parte di denigrazione del futuro prodotto Nvidia e dall'altra di intimidazione verso i suoi clienti per scoraggiarli dall'adottare tale soluzione. Poi, in ultimo, ha fatto ufficialmente marcia indietro, dichiarando che non avrebbe ostacolato la piattaforma ION. In questi giorni sono apparse le prime soluzioni ION (l'Acer Aspire Revo, e una MB Zotac).
Purtroppo Intel non è nuova a queste condotte protezionistiche, spesso illegali. Non a caso la Commissione Europea ha proprio ora comminato un'enorme multa di 1,06 miliardi di Euro a Intel, per aver agito per anni in questi modi con lo scopo di estromettere la concorrenza dal settore dei circuiti integrati per PC, e per condotte illegali nella gestione dei prezzi.
Tornando al discorso dell'integrazione della GPU nella CPU, ribadisco che non esiste nessun vantaggio tecnologico od economico per il consumatore, con l'eccezione dei già citati SoC, utili nelle applicazioni ultra-miniaturizzate ma non applicabili in termni generali, almeno ancora per parecchi anni.

lucusta
13-05-2009, 19:31
intel ha dichiarato che non ostacolava ION per 2 motivi:
1) ha finito le scorte dei 910, quindi oggi si sta' su 945 di cui non aveva inondato il mercato per l'evento VISTA ready;
2) sta' cambiando chip, quindi e' probabile che ATOM sara' declassato ad embedded x86, e ION non e' la cosa migliore per un embedded...

strategie di mercato...

frncr
13-05-2009, 23:08
Intel semplicemente non ha un chipset adatto per Atom, e cerca di rifilare un "coso" di 3 o 4 anni fa che è improponibile (a parte la soluzione per l'ULV, che è un'altra parrocchia e va benino grazie a tecnologia di terze parti in licenza). In particolare la soluzione Intel è talmente carente sul fronte GPU che non è possibile ottenere la certificazione Vista da Microsoft.
Per questo motivo Intel cerca di sostenere che Atom non deve essere utilizzato per i desktop. E per cosa dovrebbe essere usato, per le radiosveglie?
In realtà Atom è una delle migliori cose uscite da Intel di recente, e con un adeguato chipset è perfettamente adatto a:
- tiny desktop;
- nettop;
- netbook;
- HTPC.
Oltre che ad applicazioni in ambito industriale.
La piattaforma ION ha già ottenuto la certificazione Vista. A parte che c'è pure XP, sicuramente più adatto, e anche tutto il mondo Linux.
La roadmap Intel per Atom prevede l'aggiunta di una versione SoC (che avrà prestazioni inferiori a ION per la parte GPU), ma questo poco cambia se non per le applicazioni portatili. A meno che non decidano di dismettere la produzione degli attuali modelli per fare un "dispetto" a Nvidia (dovrebbero essere dei pazzi auto-lesionisti per fare una cosa del genere, perciò non credo). E del resto il prossimo ION2 avrà supporto per il Via Nano e per Core2.
Se Intel, come sostenevi tu, avesse interesse nel vendere CPU e lasciare che altri vendano i relativi chipset, non avrebbe scatenato la fallita campagna di sabotaggio contro ION.