PDA

View Full Version : NVIDIA: La legge di Moore è morta


Redazione di Hardware Upg
03-05-2010, 10:21
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-la-legge-di-moore-morta_32446.html

Secondo quanto riportato dal Chief Scientist di NVIDIA la legge di Moore non ha più senso di esistere: il futuro parla di calcolo parallelo e di GPU

Click sul link per visualizzare la notizia.

faber80
03-05-2010, 10:34
altro spot occulto cpu_vs_gpu ?
Nvidia, lo abbiamo capito, tutto si dovrà basare sulla gpu dato che non hai una piattaforma.

Piuttosto pensa a uscire la fascia media e bassa di Fermi.

Scezzy
03-05-2010, 10:35
In realta' i Maya dicono che la legge di Moore non andra' oltre il 21 dicembre del 2012 :D

PieceOfHeart
03-05-2010, 10:37
Ecco. quanto ci metterà nvidia a produrre gpu desktop?

LukeIlBello
03-05-2010, 10:38
altro spot occulto cpu_vs_gpu ?
Nvidia, lo abbiamo capito, tutto si dovrà basare sulla gpu dato che non hai una piattaforma.

Piuttosto pensa a uscire la fascia media e bassa di Fermi.
ma de che :mbe:
hanno solo detto una cosa verissima... se l'avessero detto in ATI avrebbero avuto lo stesso ragione :rolleyes:

evviva i fanboy :D

faber80
03-05-2010, 10:39
ma de che :mbe:
hanno solo detto una cosa verissima... se l'avessero detto in ATI avrebbero avuto lo stesso ragione :rolleyes:
evviva i fanboy :D

ma io nn ho fatto confronti con Ati, l'hai nominata tu.
evviva i troll.... :asd: :rotfl:

beppe90
03-05-2010, 10:42
io non sarò un genio come questi 2 signori qua, Moore e Dally, ma non riesco a capire come una gpu anche tra 3-4 anni possa accollarsi il peso della gestione grafica e computazionale di un'intero pc. Certo già si parla che dall'anno prox. i vari internet explorer, firefox ecc... saranno gestiti per alcuni contenuti, riguardanti la grafica e le animazioni, dalla gpu ma gestire anche tutto il resto non lo vedo alquanto facile.

Parappaman
03-05-2010, 10:42
C'è un errore nel titolo, quello corretto è:

Legge di Moore: la nVidia è morta :O

Gabriyzf
03-05-2010, 10:44
C'è un errore nel titolo, quello corretto è:

Legge di Moore: la nVidia è morta :O

:sbonk:

SUPERALEX
03-05-2010, 10:47
mah la verità è che anche con cuda i guadagni prestazionali esaltanti si hanno solo su applicazioni ben definite...x tutti casi reali e utilizzabili sul serio gli incrementi sugli algoritmi nn sono certo del doppio o del triplo come dicono...si parla di pochi punti %

Pleg
03-05-2010, 10:49
Un paio di precisazioni: Moore parlava unicamente di densita' di transistor ( ftp://download.intel.com/research/silicon/moorespaper.pdf ) ; e in realta', ad oggi quella densita' e' l'unica cosa che scala ancora come ai vecchi tempi (e scalera' ancora per un po').

Quindi, la "legge di Moore" e' ancora viva e vegeta. Quello che invece non funziona piu' e' la crescita delle prestazioni lineare col numero di transistor, per un singolo core (e questo e' vero da parecchi anni ormai). Il parallelismo e' l'unica carta rimasta da giocare, al momento: quindi le CPU diventano multicore (coi relativi problemi di efficienza), e le GPU cercano di diventare piu' general purpose (coi relativi problemi di programmazione).

LukeIlBello
03-05-2010, 10:50
ma io nn ho fatto confronti con Ati, l'hai nominata tu.
evviva i troll.... :asd: :rotfl:

:asd:

Zappa1981
03-05-2010, 10:54
perchè quei pochi punti percentuali fanno gola a chi fa i bench.... quindi te li mostrano e la gente fa...oooooooo...aaaaaaaa...oooooooo tutto quà :)

undesaparecido
03-05-2010, 10:58
Spero che questo spinga la crescita e la nascita di altre architetture più efficienti alternative all'x86.

arunax
03-05-2010, 11:00
Questa legge, applicabile nel campo dei processori, è raggiunta però alla fine

:rolleyes: suppongo voleste dire che la validità della legge di Moore è giunta alla fine, oppure che ha raggiunto la fine...

Comunque Dally non dice stupidaggini; semplicemente si "dimentica" di dire che per sfruttare un elevato parallelismo è necessario software altamente parallelo: le prestazioni del software non parallelizzabile non scalano linearmente all'aumentare lineare del parallelismo. Si vedrà chi l'avrà vinta su questo punto solo con gli anni, man mano che diventerà sempre più difficoltoso - e costoso - far scalare le prestazioni delle CPU tradizionali.

Blackcat73
03-05-2010, 11:01
Certo che è morta la hanno squagliata con le ultime schede....

faber80
03-05-2010, 11:03
Esattamente.

D'altra parte questa sinfonia stonata da parte di nVidia va avanti da anni, ci vuole convincere che un giorno invece di un computer avremo una scheda video per fare tutto. Per ora si sono adeguati con i consumi, visto che Fermi consuma come un PC completo di fascia media.

Quando AMD acquisì ATi fu subito chiaro che nVidia era stata messa in condizione di non poter sopravvivere alle stesse dimensioni, o trova il modo di fare una fusione con VIA con qualche barbatrucco che consenta l'acquisizione delle licenze x86 e x86_64 oppure diventerà una piccola realtà di nicchia, nonostante dica fino alla nausea che Intel è morta perché le CPU ormai non possono più nulla contro le GPU... beato marketing... :rolleyes:
v.a.n.g.e.l.o

Certo che è morta la hanno squagliata con le ultime schede....
:rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl:

Aciux
03-05-2010, 11:08
l'affermazione di nvidia conferma il crescente interesse che essa ha nel settore Cpu.
nvidia vuole estendere sempre più il campo di applicazione del gpgpu.
Il settore CPU è però dominato dall'architettura x86 (un'architettura che ha praticamente 30 anni) e fintanto che essa contunerà ad esistere la vedo molto dura per nvidia riuscire ad entrare appieno in questo campo.
Il calcolo parallelo ha fatto passi da gigante in questi anni così come, più in generale, il gpgpu ma credo che sia necessario un cambiamento più radicale (l'abbandono dell'architettura x86 per l'appunto) per poter vedere una netto e totale salto in avanti nelle prestazioni dei PC.
Purtroppo l'abbandono dell'architettura si scontra con i software e la necessaria (obbligatoria!) retrocompatibilità.
Purtroppo credo che ci vorrà molto tempo ancora.
Aspettiamo e vediamo!

Pleg
03-05-2010, 11:13
credo che sia necessario un cambiamento più radicale (l'abbandono dell'architettura x86 per l'appunto) per poter vedere una netto e totale salto in avanti nelle prestazioni dei PC.

Non e' tanto quello il punto: se al posto di x86 avessi MIPS avresti esattamente lo stesso problema. Il problema e' che un'ISA del genere non esprime bene il parallelismo... ma il problema e' ancora piu' a monte: per un sacco di algoritmi non si sa proprio come trovare (se ce l'hanno) ed esprimere il parallelismo in modo semplice e alla portata di tutti i programmatori.

Aciux
03-05-2010, 11:13
Spero che questo spinga la crescita e la nascita di altre architetture più efficienti alternative all'x86.

Ti quoto, il tuo commento sintetizza quanto ho appena scritto!

simolaviz
03-05-2010, 11:35
Un paio di precisazioni: Moore parlava unicamente di densita' di transistor ( ftp://download.intel.com/research/silicon/moorespaper.pdf ) ; e in realta', ad oggi quella densita' e' l'unica cosa che scala ancora come ai vecchi tempi (e scalera' ancora per un po').

Quindi, la "legge di Moore" e' ancora viva e vegeta. Quello che invece non funziona piu' e' la crescita delle prestazioni lineare col numero di transistor, per un singolo core (e questo e' vero da parecchi anni ormai). Il parallelismo e' l'unica carta rimasta da giocare, al momento: quindi le CPU diventano multicore (coi relativi problemi di efficienza), e le GPU cercano di diventare piu' general purpose (coi relativi problemi di programmazione).

Sono d'accordo. Faccio inoltre presente che la "legge" di Moore non è una legge in senso stretto come ad esempio la legge di gravitazione. Non ha grandi fondamenti scientifici.. a mio modo di vedere le cose è una "regola" che si sono dati in Intel e chi vuole stare al passo con Intel (ovvero tutti i concorrenti) è costretto a seguire tale modello, modello che ovviamente non continuerà all'infinito (per ovvie evidenti ragioni fisiche e di costo) e Moore questo lo sapeva bene^^

In realtà oggi più che la fisica, è l'economia a mettere in crisi questa regola: gli investimenti necessari per cambiare nodo tecnologico crescono ormai "esponenzialmente" rendendo difficile un ritorno economico.

Arkimedes84
03-05-2010, 11:44
Certo che predicare il risparmio energetico e una riduzione del calore generato quando poi ti presenti con quel fornelletto di Fermi vuol dire volersi fare del male :D

bs82
03-05-2010, 11:46
nvidia e gli articoli a riguardo...

La legge di moore dice tutt'altro. Punto.

Ren
03-05-2010, 11:48
Pleg, una volta raggiunta la massima miniaturizzazione possibile (costi/benefici) con quale tecnica produttiva si aumenteranno le performance ?
La corsa al mhz potrà riprendere con un cambio deciso dei materiali di fabbricazione dei semiconduttori ?

Pleg
03-05-2010, 11:56
Pleg, una volta raggiunta la massima miniaturizzazione possibile (costi/benefici) con quale tecnica produttiva si aumenteranno le performance ?
La corsa al mhz potrà riprendere con un cambio deciso dei materiali di fabbricazione dei semiconduttori ?

Domanda interessante. Il punto fondamentale, come dici tu, e' che la "corsa al megahertz" o la "corsa ai core" non sono altro che nomignoli per trend di progettazione che sono dettati dalla fisica, dalla tecnologia e dall''economia.

Non so che cosa si usera' dopo il silicio (che ha ancora un bel po' di anni davanti a se'). Si parla da semiconduttori diversi, a cosa radicalmente nuove ed esotiche come i computer quantistici... non so dirti quali siano le tecnologie piu' promettenti.

Comunque e' certo che, se la nuova tecnologia (quale che essa sia) permettesse di riprendere la "corsa ai MHz", essa ripartirebbe subito :) e' comunque sempre il modo piu' semplice di aumentare le prestazioni. Se potessi costruire un processore da 100 GHz con consumi accettabili e una memoria abbastanza veloce da rifornirlo di dati, allora sarebbe di sicuro la strada migliore da percorrere.

Luposardo
03-05-2010, 11:57
e come al solito l'ottimizzazione per una architettura (qualsiasi essa sia) va a farsi benedire.......................

ilmassa1
03-05-2010, 12:03
Cerca di vendere le Fermi... ecco a che serve l'articolo....
Non si tratta di una buona GPU e la spacciano come calcolatore.

Spec1alFx
03-05-2010, 12:07
Due cose:
1) sulla questione nVidia cerca di rimescolare le carte ma la realtà è estremamente chiara. Semplifico. Le CPU si occupano di general purpose, il quale tende ad essere per sua natura estremamente seriale e il parallelismo dei core si scontra contro questa natura. Le GPU si occupano di eseguire operazioni matematiche su grandi moli di dati, che conseguentemente possono essere eseguite in modo estremamente parallelo. Dire che le CPU scalano male mentre le GPU scalano bene è per lo meno fuorviante, essendo che vengono dati loro compiti estremamente diversi. La regola che vale è: a ognuno il suo. Hai istruzioni general purpose? Ti serve una CPU. Devi macinare FLOPS? Ti serve una GPU.

Tra l'altro una cosa che si tende ad omettere è che le CPU quando c'è da eseguire calcoli in virgola mobile comunque qualche performance la fanno segnare anche loro (in particolare l'ultima generazione di Xeon), mentre le GPU se la cavano decisamente peggio, in proporzione, quando si tratta di general purpose.

Un'altra cosa che viene omessa è che anche nel campo del general purpose ci sono ambiti in cui il parallelismo viene sfruttato, ovvero quando... ci sono molti task da seguire contestualmente. Un esempio è l'impiego nei server, in cui devono essere serviti molti client e ci sono conseguentemente molti processi paralleli.

2) La questione della presunta obsolescenza dell'architettura x86 è un falso problema ed è superato da una storia informatica che probabilmente non si conosce. Gli x86, nati come CISC, non sono più tali dal vecchio Pentium; in altre parole esternamente sono x86 ma internamente sono... quello che capita. Guardiamola da un altro punto di vista. Un programmatore che scrive codice in PHP se ne batte allegramente se poi questo viene eseguito da un x86, da un x86_64, da un powerpc, da un POWER, da un ARM e così via; questo grazie al fatto che nel corso del tempo si sono aggiunti livelli di astrazione che ora ci permettono queste comodità (di contro staremmo ancora qui a programmare in codice macchina). Ora: gli x86 hanno un livello di astrazione tra la loro ISA e il loro vero core. Questo dà il vantaggio non indifferente di essere effettivamente slegati da una precisa architettura: i produttori x86 possono realizzare il core con le architetture che trovano più efficienti e soprattutto possono cambiare cosa c'è "sotto" quando e come vogliono. Lo svantaggio è che il traduttore da ISA x86 all'ISA interna del processore occupa transistor, svantaggio che però ha influenza solo se vogliamo realizzare x86 estremamente piccoli e contenuti; nei processori con centinaia di milioni di transistor il problema non sussiste.

In conclusione: non c'è un architettura migliore (per gli ambiti in cui essi dominano, beninteso) degli x86 perchè dire "x86" definisce una compatibilità con un set di istruzioni, non un'architettura.

bues
03-05-2010, 12:23
A me sembra che Nvidia ultimamente stia applicando questa legge:

Dimezzare ogni anno gli investimenti in ricerca triplicando il numero di nomi con cui può essere venduto lo stesso processore e raddoppiare gli investimenti in marketing credendo che l'inteligenza degli utenti si dimezzi ogni anno

Pleg
03-05-2010, 12:43
Cerca di vendere le Fermi... ecco a che serve l'articolo....
Non si tratta di una buona GPU e la spacciano come calcolatore.

Beh la nuova architettura Fermi e' stata proprio pensata per GPGPU, quindi e' lapalissiano dire che la vogliono usare come calcolatore :)

Pleg
03-05-2010, 12:48
Ora: gli x86 hanno un livello di astrazione tra la loro ISA e il loro vero core. Questo dà il vantaggio non indifferente di essere effettivamente slegati da una precisa architettura: i produttori x86 possono realizzare il core con le architetture che trovano più efficienti e soprattutto possono cambiare cosa c'è "sotto" quando e come vogliono. Lo svantaggio è che il traduttore da ISA x86 all'ISA interna del processore occupa transistor, svantaggio che però ha influenza solo se vogliamo realizzare x86 estremamente piccoli e contenuti; nei processori con centinaia di milioni di transistor il problema non sussiste.

In conclusione: non c'è un architettura migliore (per gli ambiti in cui essi dominano, beninteso) degli x86 perchè dire "x86" definisce una compatibilità con un set di istruzioni, non un'architettura.

Quasi vero: in realta' potrei fare lo stesso discorso per qualsiasi altra ISA :)
Nessuno mi impedirebbe, ad esempio, di fare op-fusion per una ISA RISC (e potrebbero esserci dei vantaggi a farlo).

E x86 e' un'architettura, che e' sinonimo di ISA, al pari di MIPS, PPC, e tutte le altre. Tutte definiscono un set d'istruzioni (e un modello di memoria, eccetera), e finche' sei compatibile, a prescindere dall'implementazione circuitale interna, va tutto bene.

ninja750
03-05-2010, 13:07
Beh la nuova architettura Fermi e' stata proprio pensata per GPGPU, quindi e' lapalissiano dire che la vogliono usare come calcolatore :)

e quand'è che potremo vedere una architettura nvidia orientata al gaming? :)

Pleg
03-05-2010, 13:17
e quand'è che potremo vedere una architettura nvidia orientata al gaming? :)

Speriamo presto :)

homero
03-05-2010, 13:19
1. la legge di more, non è un teorema, pertanto è da considerarsi alla stregua di una semplice(per quanto autorevole) opinione.

2. la sostanza di quanto citato è l'innegabile obsolescenza dell'architettura x86 ormai vero freno all'evoluzione tecnologica dei personal computer, questo argomentare lo si ripete dal 1995 da quanto la digital propose come alternativa agli x86 i processori RISC ALPHA insieme ai PowerPC, la intel seppe rispondere con l'architettura superscalare pentium affiancata da windows-NT e la sua pletora di software...


3. oggi la potenza degli attuali desktop supera di gran lunga le necessità di un utente medio tanto che ci si puo' permettere di produrre del software programmato in modo pessimo basato su virtual HAL che si basa a sua volta su altri HAL...

in futuro...l'unico obiettivo sarà quello perseguito fino ad oggi la ricerca estrema del profitto...

ps: il 90% dei pc di oggi fa pietà....

JackZR
03-05-2010, 13:24
Al massimo si può dire che la legge di Moore vada aggiornata ma non che sia morta.

Ecco. quanto ci metterà nvidia a produrre gpu desktop?
Fin tanto che qualcuno non creerà un OS apposta, ma credo che questo non succederà mai.

Il parallelismo e' l'unica carta rimasta da giocare, al momento: quindi le CPU diventano multicore (coi relativi problemi di efficienza), e le GPU cercano di diventare piu' general purpose (coi relativi problemi di programmazione).
Non per niente ora CPU e GPU cominciano a metterle sullo stesso die, le cosiddette APU.

Pleg, una volta raggiunta la massima miniaturizzazione possibile (costi/benefici) con quale tecnica produttiva si aumenteranno le performance ?
La corsa al mhz potrà riprendere con un cambio deciso dei materiali di fabbricazione dei semiconduttori ?
Le performance si possono migliorare con un cambio dei materiali e di architettura, con l'aumento di frequenza e di core; cambiando i materiali si potranno raggiungere livelli di miniaturizzazione più bassi, questo consente di avere consumi e temperature più basse di conseguenza si possono alzare anche le frequenze che in combinazione con un maggiore numero di core aumenterebbero le prestazioni; poi c'è il cambio della struttura della CPU, un esempio sono le CPU cosiddette 3D, cioè invece di avere un chipettino quadrato se ne avrà uno più o meno cubico composto da una serie di CPU sovrapposte, aumentando così la potenza di calcolo (il problema più grosso per ora è il raffreddamento).
La corsa ai Mhz esiste ancora solo che ormai è diventata più una passeggiata che una corsa; se prendi in considerazione un Pentium 4 3,6 Ghz (roba di 10 anni fa) questo riscaldava e consumava come una stufa, oggigiorno invece abbiamo processori multi-core che raggiungono quella frequenza ma con un rapporto prestazioni/consumo-temperatura molto più conveniente.

C'è un errore nel titolo, quello corretto è:

Legge di Moore: la nVidia è morta :OCerto che è morta la hanno squagliata con le ultime schede....
Zelig! :asd:

elevul
03-05-2010, 13:24
Come scritto dall'altra parte:
Insomma, se ho capito bene sono incapaci di seguire la legge di Moore (a differenza di Intel), quindi tentano di sostituirla con la loro legge? :sbonk:

Narkotic_Pulse___
03-05-2010, 13:37
e sarebbe la loro legge? braciole di maiale cotte su dissi reference con un pò di pepe nero?

Pleg
03-05-2010, 13:44
1. la legge di more, non è un teorema, pertanto è da considerarsi alla stregua di una semplice(per quanto autorevole) opinione.

Un'opinione che si e' dimostrata valida per 40 anni... alla faccia della "semplice opinione"...


2. la sostanza di quanto citato è l'innegabile obsolescenza dell'architettura x86 ormai vero freno all'evoluzione tecnologica dei personal computer, questo argomentare lo si ripete dal 1995 da quanto la digital propose come alternativa agli x86 i processori RISC ALPHA insieme ai PowerPC

No, questo e' quello che ripeti tu in ogni tuo intervento, senza molto fondamento.
La diatriba RISC vs CISC e' degli anni '80, sei in ritardo di 20 anni. I problemi di oggi (blocco dell'aumento di frequenza, CPu multicore) non hanno niente a che vedere con le ISA, ma dipendono da fattori fisici. Una CPU RISC avrebbe esattamente gli stessi problemi di una x86: non si puo' piu' aumentare le prestazioni single-threaded in modo esponenziale come prima.

Pleg
03-05-2010, 13:56
A voler essere precisi, non era nemmeno una previsione o un'opinione, bensì un'osservazione sperimentale, che poi è rimasta verificata fino ad oggi, divenendo una vera e propria legge empirica ad oggi del tutto valida :)

Esatto, per questo avevo linkato il paper originale di Moore :)

Capozz
03-05-2010, 14:44
Esattamente.

D'altra parte questa sinfonia stonata da parte di nVidia va avanti da anni, ci vuole convincere che un giorno invece di un computer avremo una scheda video per fare tutto. Per ora si sono adeguati con i consumi, visto che Fermi consuma come un PC completo di fascia media.

Quando AMD acquisì ATi fu subito chiaro che nVidia era stata messa in condizione di non poter sopravvivere alle stesse dimensioni, o trova il modo di fare una fusione con VIA con qualche barbatrucco che consenta l'acquisizione delle licenze x86 e x86_64 oppure diventerà una piccola realtà di nicchia, nonostante dica fino alla nausea che Intel è morta perché le CPU ormai non possono più nulla contro le GPU... beato marketing... :rolleyes:

:asd:
Perfetto, nient'altro da aggiungere

abbath0666
03-05-2010, 15:39
2012

mirkonorroz
03-05-2010, 15:45
Mah, fino a che si riesce ad andare avanti con questa tecnologia non e' che mi interessi molto la differenza tra cpu/gpu. Sempre di sabbia cotta e linguaggi si tratta.

homero
03-05-2010, 17:08
x pleg:

sono sempre frasi prive di alcuna dimostrazione scientifica....fatte essenzialmente per il marketing...


x pleg:
la diatriba risc-cisc non c'entra nulla, quando negli anni novanta si è cercato di cambiare architettura della cpu si è preferito puntare sul risc a 64bit lo hanno fatto digital, mips, powerpc (motorola, IBM, apple)... intel + microsoft hanno tenuto duro vincendo la battaglia commerciale contro gli altri produttori...pertanto anche qui è solo questione di marketing

riguardo i limiti della fisica applicata ai semiconduttori anche questi sono una mera speculazione commerciale, che ciclicamente risuona sulle pagine delle riviste di informatica a mo di gossip...

insomma una dichiarazione basata sul nulla...

PATOP
03-05-2010, 17:31
Credo che la differenza di struttura tra le CPU si noti ancor oggi. Purtroppo si è ormai davanti a pochi vendor che producono CPU differenti a X86 e quindi le differenzazioni non sono ormai molte......ma un vera CPU RISC ha sempre un notevole vantaggio in termini di scalabilità rispetto ad una CISC (o CISC-RISC mista) . Proprio quando si vanno ad utilizzare molti core che la cosa si denota maggiormente.................

http://www.anandtech.com/show/3648/xeon-7500-dell-r810/9

Pleg
03-05-2010, 18:25
riguardo i limiti della fisica applicata ai semiconduttori anche questi sono una mera speculazione commerciale, che ciclicamente risuona sulle pagine delle riviste di informatica a mo di gossip...

Quindi il raggiungimento del limite termico e la fine dello scaling dell'alimentazione a causa della tensione di soglia dei MOS sono "gossip"? Appero'...

Dovresti dirlo a tutti i produttori di CPU, da Intel a IBM, visto che hanno tutti smesso la corsa ai GHz per passare a quella ai core.

Pleg
03-05-2010, 18:32
ma un vera CPU RISC ha sempre un notevole vantaggio in termini di scalabilità rispetto ad una CISC (o CISC-RISC mista)

Che cosa ti porta a dire questo, visto che e' falso?
Queste motivazioni sono state portate avanti negli anni '80, quando sembravano proprio vere, e negli anni '90 Intel ha dimostrato quanto fossero false riuscendo a costruire CPU x86 che avevano frequenze e prestazioni che eguagliavano quelle dei concorrenti RISC.

. Proprio quando si vanno ad utilizzare molti core che la cosa si denota maggiormente.................
http://www.anandtech.com/show/3648/xeon-7500-dell-r810/9

In quella pagina vedo che uno XEON (cioe' proprio uno dei "CISC") e' in vetta alla classifica, mentre uno Sparc (che e' RISC) e' nella meta' bassa...
E comunque, un singolo bench su una singola applicazione non e' particolarmente indicativo. Ad es. basta scegliere un'applicazione che gira particolarmente bene su una certa macchina per dimostrare qualsiasi cosa (ad es. potrei testare un'applicazione floating point intensive su un Nehalem e su un Niagara 1, e affermare che un processore CISC e' 40 volte piu' veloce di RISC, cosa che sarebbe altrettanto fuffa).

ice_v
03-05-2010, 18:41
A me sembra che Nvidia ultimamente stia applicando questa legge:

Dimezzare ogni anno gli investimenti in ricerca triplicando il numero di nomi con cui può essere venduto lo stesso processore e raddoppiare gli investimenti in marketing credendo che l'inteligenza degli utenti si dimezzi ogni anno

1. la legge di more, non è un teorema, pertanto è da considerarsi alla stregua di una semplice(per quanto autorevole) opinione.

2. la sostanza di quanto citato è l'innegabile obsolescenza dell'architettura x86 ormai vero freno all'evoluzione tecnologica dei personal computer, questo argomentare lo si ripete dal 1995 da quanto la digital propose come alternativa agli x86 i processori RISC ALPHA insieme ai PowerPC, la intel seppe rispondere con l'architettura superscalare pentium affiancata da windows-NT e la sua pletora di software...


3. oggi la potenza degli attuali desktop supera di gran lunga le necessità di un utente medio tanto che ci si puo' permettere di produrre del software programmato in modo pessimo basato su virtual HAL che si basa a sua volta su altri HAL...

in futuro...l'unico obiettivo sarà quello perseguito fino ad oggi la ricerca estrema del profitto...

ps: il 90% dei pc di oggi fa pietà....


Ivan Vanko: "...Software di mierda!" :D

Dcromato
03-05-2010, 18:44
In realta' i Maya dicono che la legge di Moore non andra' oltre il 21 dicembre del 2012 :D

la matematica non muore mai

elevul
03-05-2010, 19:10
Ivan Vanko: "...Software di mierda!" :D

Ti amo! :sbonk: :sbonk: :sofico: :sbonk: :sbonk:

MenageZero
03-05-2010, 20:07
Esattamente.

D'altra parte questa sinfonia stonata da parte di nVidia va avanti da anni, ci vuole convincere che un giorno invece di un computer avremo una scheda video per fare tutto. Per ora si sono adeguati con i consumi, visto che Fermi consuma come un PC completo di fascia media.

Quando AMD acquisì ATi fu subito chiaro che nVidia era stata messa in condizione di non poter sopravvivere alle stesse dimensioni, o trova il modo di fare una fusione con VIA con qualche barbatrucco che consenta l'acquisizione delle licenze x86 e x86_64 oppure diventerà una piccola realtà di nicchia, nonostante dica fino alla nausea che Intel è morta perché le CPU ormai non possono più nulla contro le GPU... beato marketing... :rolleyes:

finché qualcuno non inizia a vendere pc basati su gpu e senza cpu (e migliori o equivalenti come prestazioni/consumo rispetto ai tradizionali,
ovviamente), ammesso che sia tecnicamente possibile, la vedo dura per nv "ammazzare" intel o amd ... :asd:

l'affermazione di nvidia conferma il crescente interesse che essa ha nel settore Cpu.
nvidia vuole estendere sempre più il campo di applicazione del gpgpu.
Il settore CPU è però dominato dall'architettura x86 (un'architettura che ha praticamente 30 anni) e fintanto che essa contunerà ad esistere la vedo molto dura per nvidia riuscire ad entrare appieno in questo campo.
Il calcolo parallelo ha fatto passi da gigante in questi anni così come, più in generale, il gpgpu ma credo che sia necessario un cambiamento più radicale (l'abbandono dell'architettura x86 per l'appunto) per poter vedere una netto e totale salto in avanti nelle prestazioni dei PC.
Purtroppo l'abbandono dell'architettura si scontra con i software e la necessaria (obbligatoria!) retrocompatibilità.
Purtroppo credo che ci vorrà molto tempo ancora.
Aspettiamo e vediamo!

imho non è più il caso di pensare alle cpu x86 come stessimo ancora parlando dell'architettura degli anni 80, internamente sono diversissime e in alcuni aspetti una sorta di ibrido con il famoso approccio risc e affini alle arch. di cpu

per esempio nel thread della notizia sulla presentazione degli xeon nehalem-ex (gli 8 core nativi), se ricordo bene un utente aveva postato i valori di alcuni bench di calcolo scientifico per un sistema basato su questi processori e uno basato su power7 (anche questi 8 core per cpu), con stesso numero di cpu, e c'era un netto vantaggio del power7 ma questo avente clock intorno ai 3GHz, il nehalem intono ai 2 ... ci sarebbe da vedere anche il confronto sui consumi tra quei due sistemi, ma rimane un esempio che può far pensare che la microarchiettura dei moderni x86 non è poi così inefficente come la si dipinge spesso ;)

Pleg
03-05-2010, 20:37
per esempio nel thread della notizia sulla presentazione degli xeon nehalem-ex (gli 8 core nativi), se ricordo bene un utente aveva postato i valori di alcuni bench di calcolo scientifico per un sistema basato su questi processori e uno basato su power7 (anche questi 8 core per cpu), con stesso numero di cpu, e c'era un netto vantaggio del power7 ma questo avente clock intorno ai 3GHz, il nehalem intono ai 2 ... ci sarebbe da vedere anche il confronto sui consumi tra quei due sistemi, ma rimane un esempio che può far pensare che la microarchiettura dei moderni x86 non è poi così inefficente come la si dipinge spesso ;)

Gia'.
Peraltro, confrontare il numero di core non e' molto significativo: bisognerebbe confrontare le aree dei die (o il numero di transistor, che e' abbastanza equivalente a parita' di nodo litografico) e il consumo di energia. Allora si puo' vedere chi e' piu' efficiente, cioe' chi riesce ad avere piu' performance a parita' di budget di area ed energia.

beppe90
03-05-2010, 20:37
ah tra l'altro per ironia della sorte non si parlava mica di alcuni processori con controller grafico integrato? o sbaglio, se sbaglio correggetemi. Perchè se no sarebbe davvero il colmo... ahahahahahah!!!!

elevul
03-05-2010, 20:42
A me sembra che Nvidia ultimamente stia applicando questa legge:

Dimezzare ogni anno gli investimenti in ricerca triplicando il numero di nomi con cui può essere venduto lo stesso processore e raddoppiare gli investimenti in marketing credendo che l'inteligenza degli utenti si dimezzi ogni anno

Bellissima! :sbonk:

SUPERALEX
03-05-2010, 20:48
apple fa scuola..se una cosa è bella o la fai apparire bella tutti coloro che nn sanno cos'è una ram lo comprerà

Gallone83
03-05-2010, 20:53
Già e scarsa a fare le GPU ultimamente(vedi GTX480) non oso immaginare le CPU....

Narkotic_Pulse___
03-05-2010, 21:24
@SUPERALEX

puoi ripetere? non ho capito :stordita:

Pier2204
03-05-2010, 21:26
Credo che sia da prendere seriamente in considerazione Nvidia, per aver solo pensato che una "legge".. e/o opinione, per 40 anni valida e riscontrabile dai fatti, sia da loro considerata morta.

Da che pulpito...

Invece Nvidia promette, ... non opinioni o leggi, ma schede mirabolanti dall'architettura straordinaria, e dai fatti si rivelano griglie per il barbacue.. c'è qualcosa che non quadra.. :doh:

le teorie dimostrabili dai fatti...:D

FANTASTICO :asd:

SUPERALEX
03-05-2010, 21:34
@SUPERALEX

puoi ripetere? non ho capito :stordita:

che il marketing è fondamentale..

elevul
03-05-2010, 21:53
Credo che sia da prendere seriamente in considerazione Nvidia, per aver solo pensato che una "legge".. e/o opinione, per 40 anni valida e riscontrabile dai fatti, sia da loro considerata morta.

Da che pulpito...

Invece Nvidia promette, ... non opinioni o leggi, ma schede mirabolanti dall'architettura straordinaria, e dai fatti si rivelano griglie per il barbacue.. c'è qualcosa che non quadra.. :doh:

le teorie dimostrabili dai fatti...:D

FANTASTICO :asd:

Ehm, non per dire, ma l'architettura di Fermi è straordinaria, eh! :stordita:
Più che altro hanno fatto la stronzata di farla a 40nm, quando avrebbero dovuto attendere i 28 per non avere problemi di temperatura... :asd:

mestesso_1
03-05-2010, 23:23
Non ho potuto fare ameno di leggere questo interessantissimo post... volevo informare chi è a digiuno di elettronica digitale c eil processo costruttivo è stato da poco(" precisamente non lo so' ! :) ") spinto fino ai 22 nm utilizzando sempre la tecnica fotoligrafica aumentando la frequenza dei raggi Uv, quindi per il momento abbiamo ancora un po' di spazio. Cmq Hp ha da poco CREATO una nuova entità bipolare che và ad affinacarsi al condensatore, alla resistenza ed all'induttore. Il suo nome è "memresistore" , ah la particolare propietà di opporre resistenze diverse al passaggio della corrente in base al verso della corrente precedente,dunque conserva uno stato è NON è volatile, è la sostituta perfetta dei transistori ... ah giusto.. dimenticavo ... è grande 3 nm.... BEATA HP ... farà miliardi a palate.... pensateci 6 core con tecnologia a 28 nm? allora con tecnologia a 3 nm ne diventeranno 48 piu' o meno.. senza contare l'abbassamento dei consumi...

ice_v
04-05-2010, 00:03
Ne avessero l'esclusiva, dei 28nm, potrei essere d'accordo, ma non è che quando avrà aspettato i 28nm, AMD si sarà girata i pollici, il problema sarà lo stesso, architettura troppo esosa di transistor per riuscire a competere.

I 28nm saranno come i 55nm di R600, nVidia potrà riprendersi al giro successivo.

Scusa, non ho capito...

...stai insinuando che non basteranno nemmeno i 28nm per fare (finalmente) una versione di Fermi decente (con decente intendo in linea di massima, almeno un 40% di performance in più, senza i problemi di consumo/calore)???

Insomma stai dicendo che Nvidia tornerà ai tempi d'oro solo con i 20nm (Fermi III...o come cacchio la chiameranno per allora :confused: )?

bs82
04-05-2010, 00:30
Scusa, non ho capito...

...stai insinuando che non basteranno nemmeno i 28nm per fare (finalmente) una versione di Fermi decente (con decente intendo in linea di massima, almeno un 40% di performance in più, senza i problemi di consumo/calore)???


Scusa ma te invece come fai a pensare che passare Fermi da 40nm a 28nm si possano avere il 40% di performance in più....e senza i problemi di consumo????? :sofico:

:read: Da 40nm a 28nm potrai vedere tanto per sparare numeri un calo dei consumi del 15-25% dato dalla diminuzione del voltaggio usato, e lo stesso vale per il calore...

Ma se vuoi pure il 40% di prestazioni in più .... cari miei... :muro: ...il problema resta quello!

Il chip, 40nm o 28nm, è troppo grosso... e per di più probabilmente è carente all'interno di una migliore gestione dei consumi!

Dai a 40nm non puoi avere un chip "che non usi" e che ti scalda con temp di circa 60-70°!!!!!!!!!!

RV870 che è solo più piccolo di un terzo.. in idle sta a 35°!!!! E sono sempre 40nm... quindi è evidente che non è solo un problema di "dimensioni di realizzazione"... ma c'è qualcosa che è andato storto a livello progettuale!

Foglia Morta
04-05-2010, 08:05
Dipende da quanto saranno buoni i 28nm e dall' architettura, per fare dei parallelismi con il passato si può vedere che il passaggio da 80 a 55nm ( da R600 a RV670 ) ha fatto risparmiare moltissimi watt ma le frequenze erano rimaste quasi invariate ( parlo della single gpu , da 740 sono andati a 775 ) . Mentre il passaggio da 90 ai 65nm ( da G80 a G92 ) ha fatto risparmiare watt ma hanno potuto anche alzare le frequenze ( per il core da 575 a 675 e per gli sp da 1.350 a 1.688 ) . IMO baratteranno un po di consumi con un po di frequenze , quanto dipenderà dal processo produttivo. Resta il problema delle performance per area ma siamo talmente lontani dai 28nm che forse c' è tempo per tirare fuori qualcos' altro ( da entrambi i produttori , da ATi di sicuro con SI )

ilgrillo
04-05-2010, 08:54
La mia analisi (molto all'"acqua di rose") è che le dichiarazioni di Nvidia su sistemi basati su GPU, strizzino l'occhio al mondo ancora poco esplorato del cloud computing, in cui il calcolo locale sarà nullo o prossimo allo zero e nelle nostre case si avrà bisogno solo di un'interfaccia grafica.

Vedi anche onlive.com

devil_mcry
04-05-2010, 16:47
probabilmente nvidia si sente alle strette

ati acquistata da amd ha la sicurezza di una piattaforma completa

nvidia dal canto suo si sente cn l'acqua alla gola, il maggior introito secondo me lo aveva dalle soluzioni low end, igp incluse (per la maggior parte)

ad oggi il mercato però si sta ponendo male

intel ha praticamente ficcato tutto nella cpu (vedere lynnfield e clarkdale) e non può manco volendo fare nb con igp integrata per questi sistemi dato che sappiamo che solo gli attuali bloomfield hanno un nb ma che è un mero pilota pci-e ma hanno un mercato ristrettissimo queste soluzioni tra l'altro dalla prox generazione i core tipo clarkdale saranno monolitici non + divisi come oggi giorno

le mobo intel supportano sli e crossfire quindi...

amd dal suo canto ha anch'essa il memory controller nella cpu, e il nb, ma dalla prox generazione avrà tutto nella cpu anche lei e penso rimarrà sulla mobo solo più il SB e ha oltretutto soluzioni igp perfomanti

le soluzioni nvidia, + vecchie credo, vanno ancora per lo sli

ma nei prossimi anni?

cosa resterà a nvidia? qualche pilota x linee pci-e? campare di sole gpu di fascia medio alta è difficile, continuare con il rename delle svga cm fa ora x la linea economica non è una strada...

~Jaco~
06-05-2010, 09:29
Secondo me e da quanto ho visto in giro ha proprio ragione Dally: il processore servirà comunque per far funzionare il pc, ma nelle applicazioni tipo computer grafica, es. rendering, che sfruttano al 100% l a cpu messa a disposizione e solo quella, per diminuire i tempi di calcolo vengono usati processori in parallelo e piu se ne hanno minore e il tempo di calcolo. Recentemente sono in progettazione software in grado di sfruttare i core non dellla cpu bensi della gpu che in media ne posseggono un centinaio per motivi tecnico/pratici. Infatti non dovremo piu spendere soldi per accaparrarci un centinaio di cpu pronte a risolvere i nostri carichi di calcolo ma le avremo gia a disposizione nel costo della gpu: qualche software house produttrice di motori di rendering ha gia implementato questa funzione e i risvolti sono grandi.

BodyKnight
07-05-2010, 10:08
io non sarò un genio come questi 2 signori qua, Moore e Dally, ma non riesco a capire come una gpu anche tra 3-4 anni possa accollarsi il peso della gestione grafica e computazionale di un'intero pc. Certo già si parla che dall'anno prox. i vari internet explorer, firefox ecc... saranno gestiti per alcuni contenuti, riguardanti la grafica e le animazioni, dalla gpu ma gestire anche tutto il resto non lo vedo alquanto facile.

Se una GPU facesse una cosa del genere si chiamerebbe CPU.
A me pare che siamo alla storia della volpe e l'uva.

E la seconda sparata di nvidia questa settimana, dopo la storia che Physx può funzionare solo se a randerizzare la grafica c'è una scheda nvidia perchè le due sarebbero indissolubilmente legate (contro qualsiasi evidenza sperimentale).

Vik Viper
07-05-2010, 13:16
Io ho sempre considerato la cosiddetta "legge" di Moore una grandissima cacchiata. Che diamine di legge è una proposizione che si ritocca nel tempo?? Suvvia, quella al più si chiama previsione (ed è stata cannata enne volte, anche).
Ovviamente ci sono sempre quelli che hanno bisogno del supporto di figure di riferimento per sollevarsi dalla propria pochezza e sono sempre pronte a rendere "geniali" persone o affermazioni.
Ricordo che all'ultimo ritocco di questa "legge" (mi fa fin schifo usare questo termine per questa frescaccia storica) c'era una folla di scandalizzati al sentire le critiche alle affermazioni del loro idolo.
Il punto è che la propensione a dare del genio a qualcuno o ritenere geniale qualcosa è inversamente proporzionale a quanto si conosce dell'argomento di cui si tratta.

Visualvortex
07-05-2010, 14:56
Oddio, da anni sono grande sostenitore di nvidia ma questa fa davvero ridere.

Paragonare una GPU ad una CPU? ma dai... e pensare minimamente che una GPU possa sostituire in loco una CPU in tutte le sue funzioni?...

Penso soltanto ad una render farm dove appunto è richiesta pura potenza di calcolo per gestire un workflow notevole... per ottenere le stesse prestazioni con sistemi "GPU based" si arriverebbe a spendere quasi il doppio e a quel punto cosa avremmo?

Una CPU nvidia... :P


La cpu è come il motore di una macchina,pura potenza, la gpu possiamo vederla come l'insieme di assetto, gomme, telaio, cambio dsg... :Prrr: può aiutare a migliorare le prestazioni, ma non sostituirà mai il motore "pulsante" dei nostri cari pc. :asd:

Ubro92
09-07-2010, 17:11
Io non sono un esperto anzi non ne so molto ma ho notato che comunque l'architettura fermi è vero si che presenta i problemi che tutti conosciamo ma ha un ottima capacità di ottimizzazione che al contrario l'architettura ati mi sembra un po agli sgoccioli...secondo me arrivati ai 28 nm sarà piu facile per nvidia ottimizzare l'architettura fermi che per ati...ora io non ne so molto ho fatto una supposizione leggendo anche i vari articoli in rete e tirando varie conclusioni poi chiaramente potrei anche aver scritto tutte minchiate...

Bastian_Contrario
09-07-2010, 17:23
la legge di moore è morta? a parte che non è detto... ma se lo è... oh beh... mica era nostradamus :D

Raghnar-The coWolf-
09-07-2010, 17:58
Non vedo che cavolo c'entri la legge di moore con la guerra gpu vs cpu.
Anche le gpu si avvantaggiano della legge di moore, e nelle cpu non è solo la legge d moore a incrementare le prestazioni O_o

Ubro92
09-07-2010, 18:02
Non vedo che cavolo c'entri la legge di moore con la guerra gpu vs cpu.
Anche le gpu si avvantaggiano della legge di moore, e nelle cpu non è solo la legge d moore a incrementare le prestazioni O_o

In tutta onesta sta legge non è che sia una legge fisica...è normale che man mano che scendiamo di processo produttivo si incontreranno difficolta sempre maggiori per scendere al di sotto...infatti superati i 22nm saranno obbligati a dover trovare nuove tecniche per scendere al di sotto e i tempi di certo non sono dovuti alla legge di more ma alla bravura degli ingegneri...

sbudellaman
09-07-2010, 22:47
Ma questa news è magicamente resuscitata dopo due mesi ? :D

Ubro92
10-07-2010, 13:18
Oops...sorry non ci avevo fatto caso...stavo cercando su google alcune notizie sulle vga a 28nm è saltata fuori questa pagina e ho detto la mia senza guardare la data...chiedo venia!!!!:D