Quote:
Originariamente inviato da demon77
Beh, l'architettura tipica delle GPU ha comunque i suoi limiti!
E' già da tre anni almeno che si è arrivati al "massimo" di frequenza per i processori e da lì si sono cercate strade alternative come l'aumento dei core..
Il problema grosso è che scelte di questo tipo prevedono la rivisitazione del mondo software e del modo di programmare.. un scoglio peesante da superare, sia per la "lentezza" del mondo software nel digerire rivoluzioni di questo tipo (basti pensare ai 64bit) sia per la indubbia difficoltà oggettiva che si può incontrare nel creare software parallelizzati.
Speriamo si arrivi ad un punto di svolta nelle tecnologie dei microchip!
In parole povere... ma quanto ci vorrà ancora per sfruttare i processori quantici????
|
beh nn conta solo la frequenza nelle cpu moderne
se prendi una qualunque cpu attuale e la paragoni a una di qualche anno fa, a parità di numero di core e frequenza la differenza è molto + che tangibile
vedi il divario che c'è tra core2quad e core i5 750, entrambi quad core, entrambi x86, ma la diff prestazionale è notevole a parità di frequenza
cmq è anche abbastanza ovvio che le gpu sono più parallelizzate delle cpu, e in calcoli di pura potenza vanno + forte penso che facilmente si andrà in questo senso ma ci vorrebbe uno standard di base sotto
se oggi monto un server con N gpu dentro, mi faccio il codice ad oc per le mie gpu, domani cambio i server e passo da ati a nvidia tac tutto da rifare...
per i processori quantici, penso che ne passi ancora e ben ancora
in 10 anni sono stati fatti diversi passi avanti ma i problemi sono tanti e ancora adesso è tutto in fase sperimentale nelle università ...
tu pensa che il primo pc diciamo vero è proprio è nato nella MSEE nel 46, esplosa la tecnologia circa 30anni dopo si sono visti i primi microprocessori, gli intel 4004
qui penso che i tempi saranno ancora più lunghi dato che di concreto non c'è ancora nulla