|
|
|
![]() |
|
Strumenti |
![]() |
#4621 |
Senior Member
Iscritto dal: Aug 2003
Città: Casa mia
Messaggi: 5076
|
|
![]() |
![]() |
![]() |
#4622 | |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 1164
|
Quote:
1) windows xp è gestito male, non ha priorità attive sui processi e si vede 2) windows 7 ottimizzato viaggia veloce come xp e ha i boost di vista, e poi quando si paga qualcosa si pretende di usarla, o no? ![]() 3) nel 2010 non serve più avere una cpu potente, ormai i programmatori si sono svegliati nel sfruttare le potenzialità delle gpu, cos'è una gpu? La gpu detta molto semplicemente è una CPU multicore MOOOLTO scandalosa, non ha tutti i registri delle cpu e sono più striminzite, diciamo che è più paragonabile ad una cpu RISC, fa quelle 3 operazioni, e le fa da dio. Qual'è la vera potenza delle GPU? Il sistema parallelo di calcolo, le cpu hanno un numero altissimo di core, e questi lavorano in parallelo, proprio come i processori dual-tri-quad core. Le cpu più scandalose hanno 80 stream core, quelle più potenti? 1600x2 ![]() Ad oggi tramite CUDA o ATI STREAM si possono 'emulare' codici in C tanto da sfruttare l'enorme potenza di calcolo delle gpu per sgravare il lavoro delle cpu qua trovi una spiegazione pratica delle differenze fra cpu e gpu, nel calcolo singolo. Windows 7 a differenza di Vista sfrutta le nuove api directx 11 e con essa il directcompute, il vantaggio? tramite i driver WDDM 1.1 windows 7 sfrutta le directx 11 per reindirizzare tuo il calcolo grafico di 7 sulla GPU, in più tramite direct2D i nuovi browser supporteranno il rendering via GPU, quando carichi una pagina internet questa viene graficamente gestita dalla cpu, da firefox 3,7 e i.e.9 questo rendering andrà direttamente sulla gpu, ovviamente se questa supporta il direct2D Morale della favola, Grazie ad OPENCL (CUDA ATISTREAM) si può utilizzare la GPU per fare calcoli al posto della CPU, quindi nel futuro ci saranno programmi interamente scritti in 'opencl' che useranno % bassissime di CPU e reindirizzeranno il lavoro direttamente sulle GPU, Con directcompute e directx11 TUTTA la grafica di windows 7 viene demaniata alla GPU, TUTTA! e con Direct2D il rendering del web browser viene demaniato alla GPU, e pure li, la cpu non fa una mazza. Alla fin fine una gpu semplice come quella di HD5450 o GT220 ha potenzialità base infinitamente maggiori rispetto ad un i7, e grazie ad una programmazione gestita intelligentemente, si potrà sfruttare la GPU per quei programmi di base che possono sfruttare un calcolo parallelo, tipo WINRAR, rendering internet, o semplicemente ripping video, difatti con cuda e atistream si può già sfruttare la gpu per fare ripping video ![]() In poche parole, per un pc normale, non serve a niente avere un processore super potente, quando il 90% del lavoro grafico viene demaniato alla GPU, e la cpu rimarrà libera per gestire i calcoli nell'installazione programmi, gestione programmi, ecc ecc ![]() Detta completamente, l'unico svantaggio delle GPU sta nel calcolo in serie, del tipo A+B=C C+A=D D*E=F Questo tipo di calcolo non può essere fatto in parallelo, perchè giustamente, finchè non avviene il ciclo di calcolo non si ha il rispettivo risultato C,D,F.. Ma in quei programmi dove non c'è calcolo diretto, ovvero dove ogni singola riga non è legata alle altre, come in qualsiasi file compressato, come zip o i video (MPEG è un compressore video) il calcolo parallelo diventa essenziale, perchè, prendi una gpu con 1600core, prendi il file da scompressare, lo dividi per 1600, e scopri quanta porzione di file ricade su ogni core. Stessa cosa vale per i quadcore, solo che il file viene diviso per 4. E te puoi capire che per avere stesse prestazioni bisogna che ogni core del Quadcore riesca a fare lo stesso lavoro di 1600/4= 400 core della gpu. E secondo te un singolo core da 3,6ghz di un i7 è veloce come 400 core di una gpu che lavora a 650-750mhz? ![]() C'è da dire che 1mhz gpu non è uguale ad 1mhz di cpu, i registri della gpu sono più semplici e potrebbero servire più cicli di clock per fare la stessa operazione, ma anche se ce ne servissero 10, ovvero, 10 cicli di clock gpu = 1 ciclo cpu, allora fai 400/10= 40, quindi un singolo core di cpu lavora in paragone a 40 core di gpu, 1 core da 3700mhz contro 40*650mhz=26000mhz ![]() come poi ben vedere, anche se la gpu ci mettesse più cicli di clock per fare la stessa operazione di una cpu, ci sono talmente tanti core paralleli in una gpu che ogni singolo core può tranquillamente lavorare ad una velocità 10 volte minore rispetto ad una cpu, tanto come vedi limando il calcolo in modo da equiparare calcolo/ciclo, la gpu ancora vince, e di molto! ![]() e, la cpu più potente sotto overclock e raffreddamento a liquido arriva a 8ghz, una scheda con 1600 stream core sparando calcoli a caso è arrivata a 26ghz, e pensare che le gpu nuove hanno 1600x2 core, quindi, il doppio! Quindi potrebbero metterci anche 20 cicli di clock gpu per effettuare la stessa operazione di 1 ciclo su cpu, tanto sarebbe ancora più veloce e non dimentichiamoci dello sli ![]() ![]() ![]()
__________________
Zotac ION ITX P-E su2300 @ 1.88ghz, 4gb ram @ 1250, sapphire 6450 512mb, ssd samsung 830 128gb, win7, Mountain Lion! ![]() Diverse vendite di cui non ricordo i nick degli acquirenti. utente Eska consigliatissimo! Ultima modifica di Ibanez86 : 15-04-2010 alle 14:55. |
|
![]() |
![]() |
![]() |
#4623 | |
Senior Member
Iscritto dal: Jan 2006
Messaggi: 1439
|
Quote:
Io non ho detto che nella decodifica nvidia è meglio di ati. L'algoritmo è quello poi vengono applicati dei filtraggi che sono leggermente diversi. Il risultato è equivalente. Io non sono nè un fun di nvidia e nemmeno di ati cerco di capire cosa posso ricavare da un dispositivo e se quel dispositivo è adatto a soddisfare le mie esigenze e solo quelle! Certo di spendere il giusto ottenendo il massimo sempre rispetto ai miei desideri. E ti sta parlando uno che ha un'ATI sul PC e una nvidia sull'HTPC. Io ho detto che le nvidia sono meglio supportate: questo è innegabile e inconfutabile! I driver e le API sono più evolute rispetto ad ATI. La decodifica dei filmati usando la GPU l'ha introdotta nvidia, CUDA l'ha inventato nvidia. Sotto linux poi non c'è storia: nvidia è più di un anno che ha rilasciato i driver per l'uso della GPU nella decodifica e nelle elaborazioni matematiche mentre ATI ancora nulla! Ecco perchè avevo affermato che le schede nvidia sono meglio supportate...c'è più knowhow e più esperienza rispetto ad ati in molti campi. In ogni caso non serve una GT220 per la decodifica di un filmato hd va benissimo una scheda di classe 9. Così come con ATI basta una 2xxx o al limite una 3xxx. Riguardo a ion non vedo cosa ci sia di male. Io ho un htpc tuttofare basato su atom 330 + ION e funge molto bene e non consuma nulla! |
|
![]() |
![]() |
![]() |
#4624 |
Senior Member
Iscritto dal: Aug 2003
Città: Casa mia
Messaggi: 5076
|
Il discorso e' giusto, volevo solo dire che io ho provato win 7 su questa scheda quando c'era la versione RC (quindi non l'ho pagato) e mi e' sembrato piu' in difficolta' e meno reattivo rispetto a win xp, quindi ho preferito lasciare quest'ultimo che va benissimo per le mie applicazioni, anzi ho un paio di programmi che con win 7 non funzionano e quindi mi fa comodo avere un pc con XP
![]() |
![]() |
![]() |
![]() |
#4625 | |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 1164
|
Quote:
1) non fa schede fanless 2) i chip integrati ovviamente usano la ram di sistema, quindi OCCUPANO IL BUS! 3) tendono ad avere meno stream core e frequenze più alte, così bisogna aumentare la tensione, e consuma di più ![]() 4) DIRECTX 10.1! la nuova 'ION2' (NG-ION) AVRA' ANCORA LE DIRECTX 10.1 AAAAAAAAAAAAAAH, spero sia un fake perchè proprio non ci siamo Directcompute e direct2D sono nati su vista ma sono stati affinati su 7 con tanto di directx11 e WDDM1.1, la directx10.1 supporta il WDDM1.1 ma non ha le stesse api della 11, che ha in più le api grafiche directcompute affinate al 100%.. Ciò significa che la ION2 avrà ancora librerie grafiche scadenti che non sgraveranno la cpu interamente dai calcoli grafici del sistema operativo, quindi si ritorna esclusivamente al cuda e flussi HD Almeno la scheda che piace a me HD5450 ha 80streamcore invece di 16 come ion2, va a 650mhz invece di 1100mhz, ed è directx11, quindi supporto completo ufficiale win7 directcompute direct2D! E quindi ION2 si adatta a win7, la HD5450 è perfetta per 7 viste le directX! Poi vabbè, ati ad oggi ha la scheda video più potente, ma è vero che cuda da migliori benefici rispetto ad atri stream, eh vabbè, pazienza ![]()
__________________
Zotac ION ITX P-E su2300 @ 1.88ghz, 4gb ram @ 1250, sapphire 6450 512mb, ssd samsung 830 128gb, win7, Mountain Lion! ![]() Diverse vendite di cui non ricordo i nick degli acquirenti. utente Eska consigliatissimo! |
|
![]() |
![]() |
![]() |
#4626 | |
Senior Member
Iscritto dal: Jan 2006
Messaggi: 1439
|
Quote:
Non ti ho corretto prima alcune precisazioni sono d'obbligo. Esistono schede nvidia fanless così come esistono schede ati fanless. Certo una 5750 non sarà mai fanless così come non lo sarà mai una gtx470! La 240 fanless la fa per esempio inno-3d http://www.pchs.it/images/stories/inno3d_01.jpg Riguardo al numero degli stream e delle frequenze operative possiamo discutere per lungo tempo senza che nè io e nè tu ne usciremo vincitori. Sono scelte progettuali. Giuste o sbagliate che siano! Io da programmatore e sistemista condivido di più la soluzione nvidia e ti spiego il perchè. I programmatori e gli algoritmi sviluppati dagli informatici e dagli studiosi in genere non sono altamente paralleli. Le persone sono abituate a pensare in modo sequenziale e solo poche operazioni possono essere svolte veramente in parallelo. Inoltre è scientificamente dimostrato che paralellizare oltre un certo limite non porta benefici perchè un thread poi si deve fermare ad aspettare i dati di un altro thread per cui quello che si guadagna parallelizzando le attività si perde poi nei meccanismi di sincronizzazione. Ergo una soluzione meno core ma più veloci è preferibile a una soluzione di più core e meno veloci. Anche la storia si è espressa al riguardo con il predominio delle architetture CISC rispetto ai RISC e ai transputer e compagnia! Non entro nel merito delle directx 11 altrimenti ci sarebbe troppo da dire compreso il fatto che non li usa nessuno e così sarà per almeno un anno! In ogni caso non si può nemmeno lontanamente paragonare una 5450 con una ion o una ng-ion perchè sono prodotti con target diversi e livelli diversi. E' come paragonare una punto con una A4! Riguardo alla scheda più potente....beh la storia è scritta: le schede grafiche top di gamma più potenti sono sempre state le nvidia. Nei periodi di transizione ci sono state volte in cui ati ha fatto schede video più prestanti ma quel primato è rimasto per poco tempo e ahimè per te con l'uscita sul mercato della GTX480 nvidia si è ripresa ampiamente il primato. Con questo non voglio dire che ATI fa schede video che son schifezze ma sotto molti punti di vista nvida è meglio non ultimo per CUDA come giustamente tu hai ammesso! E te lo dice uno che ha nel PC una 4850! Sull'opportunità di avere una 5450 o una ion...beh quelle sono scelte. Ognuno fa le proprie valutazioni e sceglie. Penso che molti concorderanno sul fatto che non ha alcun senso sprecare una 5450 solo per vedere i filmati quando basta una scheda di classe decisamente inferiore. Anche il discorso IE9 o Mozilla 3.7 è un attimo diverso poichè l'apporto di GPU è verso i contenuti multimediali. |
|
![]() |
![]() |
![]() |
#4627 |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 1164
|
beh si, è ovvio che è meglio avere core più potenti che scarsi e infiniti, la tecnologia multicore nelle cpu è nata per l'impossibilità di innalzare le frequenze, perchè si sa che un 3ghz dualcore non è uguale di un 6ghz monocore, a meno che non vi siano programmi che sfruttano interamente il multicore, e quindi il calcolo parallelo, e come ho detto prima, gli unici sono i convertitori, da formato a formato, compressori ecc ecc, tutti i programmi che hanno bisogno di calcoli diretti non possono effettuare operazioni in parallelo visto che molte di queste attendono il risultato dell'altro core prima di partire.
Nvidia non so, mi da fastidio per 2 cose: 1) i fanless, e non dirmi che la 240 è fanless perchè c'ha un dissipatore che mangia metà case, scalderà un macello e avrà bisogno di un ricircolo d'aria pauroso, e da li ti mangi tutto. 2) Della ion mi da fastidio il fatto che sia integrata e che rubi bus succhiando ram di sistama 3) della ng-ion mi da fastidio che uscirà solo in pci-e 1x, grazie agli accordi intel nvidia, e AVRA ANCORA LE DIRECTX 10.1! e così ti mangi il tassellation, shader model 5.0 compute shader 5.0 hdr texture compression, tutte cose che ad oggi non servono a niente, ma che fra 3 o 4 anni saranno odierne, e così fra 3 anni dovrai cambiare la ng-ion perchè OBSOLETA! Io non son di parte, ho avuto una radeon x550 che è stata una scheda scandalosa, fanless, la bruciavo, l'ho overcloccata, fatte di tutte, e va ancora! dalla hd5450 mi immagino una robustezza simile, con l'aggiunta di eyefinity, directx11, ati stream cuda può essere anche migliore di ati stream, ma dubito di usarlo, o almeno, io ripping non lo farò mai, e quindi quando ho un chip che mi decodifica i flussi HD normali e di youtube, più un sistema che mi sgrava l'interfaccia grafica di web browser + windows dal calcolo processore, sono apposto nel senso, non chiedo molto, e nemmeno prestazioni, mi basta il sistema che non scatti, semplicemente
__________________
Zotac ION ITX P-E su2300 @ 1.88ghz, 4gb ram @ 1250, sapphire 6450 512mb, ssd samsung 830 128gb, win7, Mountain Lion! ![]() Diverse vendite di cui non ricordo i nick degli acquirenti. utente Eska consigliatissimo! |
![]() |
![]() |
![]() |
#4628 | ||
Senior Member
Iscritto dal: Jan 2006
Messaggi: 1439
|
Quote:
Non a caso le CPU moderne sono tutte incapsulate nel metallo rispetto per esempio alle vecchie CPU quando il chip era in bella mostra e il dissi ci poggiava direttamente sopra benchè le potenze da dissipare erano più basse. La struttura logica di un core x86 negli ultimi 10 anni non è cambiata molto quello che è cambiato molto e che ha permesso di raggiungere le velocità attuali è stata l'interfaccia verso la memoria e l'efficienza di gestione della cache. Tanto per farti un esempio la banda verso la memoria è aumentata di più di un ordine di grandezza e l'efficienza sul bus raggiunge livelli veramente alti. L'affinamento della tecnologia del silicio ha permesso l'aumento della resa di produzione e l'aumento del numero di transistori realizzabili in un mmq di silicio. Chip grandi non si realizzano per motivi economini e non proprio per motivi squisitamente tecnici (tanto è vero che un LCD da 50' viene realizzato oggi). E' stata battuta quindi la via della parallellizzazione degli algoritmi cosa che esisteva già prima dell'avvento dei multicore tanto è vero che i sistemi operativi erano multitasking fin dagli anni 70. E non è proprio vero che gli unici programmi veramente paralleli sono i convertitori, compressori, ecc.. Un algo di compressione parallelo non può essere segmentato e basta perchè il generico segmento non ha modo di sapere se quella sequenza che sta comprimendo è già magari stata compressa in altro segmento e quindi risparmiando spazio. Uno dei veri campi in cui gli algo sono fortemente parallelizzabili e i dati sono discretamente 'locali' è quello dell'elaborazione delle immagini. Ecco perchè sono nate le GPU ed ecco perchè concettualmente sia le GPU nvidia che le GPU ati hanno una struttura logica simile. Quote:
La soluzione ION non la puoi paragonare a una soluzione a grafica discreta. Ma sembra che questo non riesci a valutarlo correttamente. In ogni caso cosa me ne faccio di tassellation, shader model 5.0, ecc.. su una macchina con CPU così limitata? Misteri della vita.... E come voler mettere un motore ferrari 3 litri a 32 valvole nella carrozzeria di una punto....La macchina corre ma più di 200 non può fare altrimenti perdi aderenza e decolli! Ma sembra che anche questo non riesci a valutarlo correttamente. Ti faccio notare che fra 3 anni anche i modelli attuali saranno obsoleti e dovrai in ogni caso buttare la tua bellissima 5450! O meglio la puoi sempre tenere ma te ne farai poco. Noto sempre più spesso che a molti sfugge una cosa importante: bisogna pensare con la testa di oggi e quello che serve oggi perchè 3 anni in informatica sono veramente un era (per esempio negli ultimi 4 anni abbiamo cambiato 2 generazioni di cpu passando dalla hypertrading alla architettura core con i dualcore e ora abbiamo cambiato nuovamente con l'avvento icore e l'anno fra 2 anni è previsto un ulteriore cambio). |
||
![]() |
![]() |
![]() |
#4629 |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 1164
|
no beh ma te hai perfettamente ragione, apparte per il discorso frequenze, si sa che per aumentare le frequenze di un core rendendolo stabile, o si diminuisce intensamente il processo produttivo, o si affina la qualità del tutto, e ovviamente aumentano pure i consumi.
Un Processore monocore da 50ghz non lo vedremo MAI con questa tecnologia, bisogna cambiare materiali e modificare il sistema di produzione Il multicore è MOOLTO più facile, aggiungi e connetti fra loro, difatti mi ricordo i primi core2duo che non erano nemmeno su stesso die, due core tradizionali connessi fra loro dalla piattina, come l'atom 330, cosa facile veloce, e difatti, quando uscì il primo dualcore non aveva il doppio delle prestazioni di un singolo core, ma un 30% in più, questo perchè il multitasking non era ancora così evoluto come ad oggi. Le gpu e cpu hanno strutture diverse, le gpu sono più semplici e lavorano su poche istruzioni, le cpu sono immense, e a parere mio, sono stupide, perchè si continua ad andare avanti con la retrocompatibilià x86 o x64 quando apple ha dimostrato chiaramente che i suoi progessori power in RISC davano prestazioni più elevate dei CISC con tanto di frequenza minore. Invece ora abbiamo i CISC-RISC, WOW! ![]() anche amd e intel hanno strutture simili, del resto i registri devono essere gli stessi, cambieranno i transistor ma i registri son quelli ..... La ion è la MIGLIORE scheda grafica integrata, su questo nulla ci piove. Come detto e ripeto, la ion mi da fastidio perchè è integrata, visto che lo spazio ce l'ho, preferisco avere una gt210 o 220 piuttosto della ion, semplicemente perchè vorrei distaccare video da cpu.. sto usando in questo momento un chipset integrato, e t'assicuro che m'accorgo del grande errore, madonna, la mia x550 non aveva tante prestazioni maggiori, ma si sente che il bus è carico, si vede dal rendering 2D ![]() ho preso in causa la hd5450 perchè costa 45 euro.. quando uscirà ION2 costerà altri tanti soldi, quinsi, non so, mi ispira di più la 5450 per le directx11, che forse magari mai utilizzerò, anche se avendo windows 7, e visto che windows 7 nasce su directx, avere già hardware nativo al 100% mi ispira fiducia. Mentre la ion2 è come la 4350, una scheda da 25 euro obsoleta con i stessi registri e ovviamente maggiori prestazioni 3D per la ion, cosa che a me veramente, poco importa.. Nel senso, non giocherò MAI con un atom, non c'ho mai giocato nemmeno con l'athlon64 3200+, vedi te Non so, tanto per un po' mi tengo questa configurazione, poi quando mi stanco della 330 vedo se passare alla D510 o alla futura, D525, che con il supporto DDR3 mi costano meno le ram ![]() E a sto punto aspetto anche ion2, che sarà per pci-e1x e spero slot esterno, così al massimo cambierà parere e seguirò il consiglio tuo ![]()
__________________
Zotac ION ITX P-E su2300 @ 1.88ghz, 4gb ram @ 1250, sapphire 6450 512mb, ssd samsung 830 128gb, win7, Mountain Lion! ![]() Diverse vendite di cui non ricordo i nick degli acquirenti. utente Eska consigliatissimo! |
![]() |
![]() |
![]() |
#4630 | |
Senior Member
Iscritto dal: Jan 2006
Messaggi: 1439
|
Quote:
Un consiglio: documentati bene prima di esporre teorie derivanti da ragionamenti basati su presupposti discutibili o errati. Se non conosci la fisica del silicio o un minimo di elettronica digitale meglio stare zitto si fa più figura! E si evita di far credere agli altri cose non proprio vere. Una su tutte per esempio: usando processi produttivi con grandezze di gate più piccoli si diminuiscono le correnti e non si aumentato; viene diminuita anche la tensione e conseguentemente si abbassa sensibilmente la potenza da dissipare. Questo permette di realizzare dispositivi più complessi con molti più transistori per mmq. Le CPU e le GPU sono diverse perchè assolvono a compiti diversi e quindi hanno la necessità di effettuare compiti diversi! PUNTO! Apple non ha dimostrato un bel nulla! I sistemi erano profondamente diversi e non paragonabili. I processori non erano i suoi ma di IBM. E ora che apple usa praticamente lo stesso hardware di un PC le prestazioni sono simili. Per cui.... I processori intel e amd devono necessariamente avere strutture logiche simili visto che permettono di eseguire lo stesso microcodice. Come fai notare la differenza è nella struttura costruttiva.... I processori intel sono più performanti, dissipano meno potenza e hanno bisogno di meno corrente. Un motivo ci sarà! Infine una precisazione su NG-ION che forse ti è sfuggita. Il fine di NG-ION è quello di avere prestazioni 3D quando servono (infatti la scheda grafica rimane di fatto spenta - quindi non consuma e non dissipa - quando non serve il 3D o la decodifica di flussi HD) così da massimizzare il risparmio energetico e in ultimo le prestazioni. |
|
![]() |
![]() |
![]() |
#4631 | |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 1164
|
Quote:
![]() Dicevo che per aumentare la frequenza delle cpu per innalzarla ai fatidici 100ghz devi: aumentare la qualità del processo produttivo, diminuirne la grandezza, e irrimediabilmente aumentarne le potenze, oppure trovi un sistema pulitissimo che riesca a crearti un chip che a frequenze così elevate non vada in crash.. Fidati che se avesse costato meno e se fosse stato fattibile dal lato pratico i produttori preferivano creare un monocore da 12ghz piuttosto di un quadricore da 3ghz al singolo core. Ma come ho detto, costava meno montare 2 monocore su una piattina e collegarli fra loro (come atom 330) E ora non rigirarmi la frittata che come hai detto te, avere tanti thread non serve ad una cippa visto che 3/4 delle volte il calcolo avviene serialmente, e un thread deve aspettare che finisca l'altro per prelevare il valore, difatti, un dualcore da 3ghz non è equivalente ad una cpu monocore da 6ghz.. E se ora mi vieni a dire che è stata una scelta pratica quella dei produttori di passare al multi-core semplicemente perchè non avevano voglia di innalzare le frequenze della cpu, avendo i mezzi e le doti per farlo, senza grandissime spese, allora ti do carta bianca per andare da intel a rimproverarli di sta scelta, poveri programmatori che ora devono ragionare in multi-core ![]() 2) Beh, anche una hd5870 in idle consuma meno del full ![]() ![]() ![]() Guarda, ti dico, sono ancora combattuto perchè, passi l'inutilità delle directx11, se non per la grafica di windows7, passi che la 5450 è troppo "potente" per un D510, passi che consumi 7W in più rispetto alla ION2, sono ancora buttato sulla hd5450 visto che non mi interessano i consumi, a me da l'idea di avere prestazioni generali migliori, ha il multimonitor, così potrei comprarmi una tv fullhd e guardarmi gli HD in un 50" invece del mio 24" ![]() Che tral'altro se dovessi guardare alla potenza, ho collegato una mini-itx che consuma 40W in full load ad un alimentatore 80+ gold da 600W, vedi te che vantaggio ![]() Anzi, visto che ci sono, secondo te se rendessi l'alimentatore fanless, che riesca a dissipare quei 50-60W che vi rircolano, saranno 10W effettivi sui chip
__________________
Zotac ION ITX P-E su2300 @ 1.88ghz, 4gb ram @ 1250, sapphire 6450 512mb, ssd samsung 830 128gb, win7, Mountain Lion! ![]() Diverse vendite di cui non ricordo i nick degli acquirenti. utente Eska consigliatissimo! |
|
![]() |
![]() |
![]() |
#4632 |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 1164
|
piacevolmente sorpreso dalla D945GCLF, ho installato windows 7 x86 e il caricamento via usb è rapidissimo, più veloce rispetto alla mia vecchia asus a8v-e se.. L'aero funziona quasi magnificamente, calcolando il chipset grafico scandaloso, prima avevo un athlon 64 3200+ che andata a 2,5ghz + 1 giga ram ddr1 + asus a8v-e se + ati radeon x550 ed era tutto fluido
ora sento che il sistema è leggermente meno potente, fa più fatica in determinati punti, ma del resto con la scheda video integrata di questa scheda madre, è già tanto se vedo out-put ![]() Comunque molto sorpreso, le prestazioni sono ottime e tutto è fluido, e ho l'atom 230, mi immagino con la 330, o la 510, o la futura 525, magari accoppiata ad una scheda video come la ion2 o la gt220, allora si che molto probabilmente supererei in prestazioni anche la mia vecchia configurazione hardware ![]()
__________________
Zotac ION ITX P-E su2300 @ 1.88ghz, 4gb ram @ 1250, sapphire 6450 512mb, ssd samsung 830 128gb, win7, Mountain Lion! ![]() Diverse vendite di cui non ricordo i nick degli acquirenti. utente Eska consigliatissimo! |
![]() |
![]() |
![]() |
#4633 |
Senior Member
Iscritto dal: Jan 2006
Messaggi: 1439
|
Alora forse non sono state parole 'sprecate'!
Forse ti ho indotto a ragionare e il limitarmi a replicare e far morire la polemica sul nascere ha dato i suoi frutti. Sono contento. Ricorda sempre: un sistema equilibrato è di gran lunga migliore di un sistema decisamente sbilanciato e complessivamente va più veloce! |
![]() |
![]() |
![]() |
#4634 | |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 1164
|
Quote:
![]() Non serve a nulla avere un preciso hw rapidissimo quando hai gli altri che lo frenano.. ma che centra sta cosa? Il mio vecchio pc non era squilibrato, o almeno, avevo componenti di fascia C per tuttele applicazioni. Il bus di caricamento del boot framite flash credo dipenda dall'origine più recente della scheda, la a8v-e se era vecchia già nel 2004 quando la comprai, questa d945clf ha bios trimmabile dal 2006, quindi puoi immaginare quand'è nato il progetto. Secondo me la velocità più elevata non è dettata dal rapporto più equilibrato fra i componenti, ma semplicemente, una gestione migliore del bus L'altra scheda aveva TUTTO in più, l'unica cosa negativa, il chipset VIA, e come ho detto, probabilmente gli intel sono diversi, più prestazionali, il VIA non è mai stato fonte di ispirazione per stress o qualsivoglia. ![]() Rimango sorpreso dalle potenzialità di una scheda che nasce come bidone per basso consumo, difatti, come si evince ovunque, l'atom non è una cpu vera e propria, è un bidone con pecche letteralmente volute (come l'architettura in-order) per limitarne i consumi, con l'HT che ne riduce il buco Diciamo che l'atom in se è striminzito ai calcoli su ALU, e l'HT non fa altro che metterci una pezza al problema in-order ![]() Quindi già l'atom è squilibrato ![]() ah, non per fare flame, ma visto che m'hai appena scritto che sei stato zitto appositamente per non continuare la discussione in eterno, cito: Con il progredire dei processi produttivi (fino ad arrivare a quello a 90 nm) e il raggiungimento di clock sempre più elevati e vicini ai limiti fisici, i due principali produttori di chip, Intel e AMD hanno deciso di migrare, a poco a poco ma inesorabilmente, all'architettura dual core, ovvero 2 core montati sullo stesso package. In pratica, non potendo aumentare più la frequenza massima, si cerca di migliorare il parallelismo avendo a disposizione, dal punto di vista del sistema operativo, una configurazione molto simile ai tradizionali sistemi biprocessore. Motivazioni per una soluzione Dual Core Aumentare ulteriormente la frequenza di clock di una CPU single core è stato giudicato dai progettisti una via molto onerosa e complicata, dato che i consumi dei processori hanno superato i 100 W e si presenta un conseguente problema di raffreddamento dei circuiti. fonte wikipedia e, questo La fisica non permette l'aumento esponenziale della velocità di clock senza che questa si traduca in un incremento esponenziale del calore prodotto e così, la scelta commerciale del multi core, come ho detto qualche pagina fa, mi sembra obbligatoria più che voluta, se all'innalzare della frequenza fossero diminuiti i consumi, avrebbero continuato col single core ![]() Che dire, è scientificamente provato che un dualcore su programmi non ottimizzati non va al 2x di velocità, quindi, per esteso, un single core da 5ghz sarà SEMPRE più "veloce" di un dualcore 2,5ghz aventi stessa tecnologia, ma SEMPRE! Magari sul dualcore riesci a riempire meglio la cache o i thread, ma sul single core da 5ghz nello stesso intervallo di tempo hai ua frequenza doppia di cicli ci clock, e quindi, calcoli più rapidi, quindi, maggiori calcoli per avere stesso rendimento bisogna che un sistema dualcore lavori al rendimento 100% per ogni core, cosa che funziona SOLO in rari casi. L'unica esperienza diretta di multicore veramente funzionante a rendimento 100% è il processore Cell montato sulla ps3, questo è ottimo perchè è gestito intelligentemente, praticamente all'interno del die c'è un processore che comanda altri 8 processori, infine questi 8 sono collegati tramite un bus fra loro, quindi, il processore a monte può decidere dove diramare le informazioni, e ogni altro "processore" della schiera degli 8 è libero di ricevere dati e scambiarli con gli altri, morale della favola? La programmazione è veramente dura, ma in questo modo hai il perfetto multitasking, perchè ad un processore puoi demaniare il calcolo audio, ad uno i calcoli matematici, ad uno il rendering, e ovviamente puoi prenderne 2 e farli collaborare come un dualcore dell'architettura x86 A conti fatti il cell è paragonabile ad 8 cpu monocore + 1 cpu di controllo messe tutte in parallelo, ognuna lavora di base per i cavoli suoi, ma può tranquillamente scambiare informazioni con le altre, e così ricadono gli effetti del collo di bottiglia nei momenti in cui la gestione dei thread risulta scadente, perchè tanto ogni cpu ha la sua strada e anche se in se non ha rendimento 100%, completa il suo lavoro senza necessitare di ottimizzazione diretta del codice insomma, off-topic a gogo.. ultimo post off-topic.. promesso ![]()
__________________
Zotac ION ITX P-E su2300 @ 1.88ghz, 4gb ram @ 1250, sapphire 6450 512mb, ssd samsung 830 128gb, win7, Mountain Lion! ![]() Diverse vendite di cui non ricordo i nick degli acquirenti. utente Eska consigliatissimo! Ultima modifica di Ibanez86 : 21-04-2010 alle 10:42. |
|
![]() |
![]() |
![]() |
#4635 |
Senior Member
Iscritto dal: Jan 2006
Messaggi: 1439
|
Il lupo perde il pelo ma non il vizio!
![]() Il tuo 'guaio' è che ti sei imbattuto in una persona che con queste cose ci lavora per cui conosce molto bene i dettagli. Senza voler fare polemiche, andare ulteriormente OT o peggio alimentare flame mi permetto alcune puntualizzazioni. Questo come detto in qualche post precedente che un ignaro utente si faccia 'strane' idee e magari per 'stimolare' te ad approfondire degli argomenti. Ciò che hai trovato scritto su wikipedia ed hai riportato è semplicistico è un pò fuorviante. Come ti ho detto prima il problema dell'aumento della frequenza di clock delle CPU è dovuto principalmente a una serie di fattori INDIPENDENTI dall CPU stessa. Cito per esempio: RAM troppo lente, interfacciamento con le periferiche, realizzazione schede madri (materiali e struttura dei circuiti), compatibilità elettromagnetica (sentito mai parlare di radiazioni ionizzanti?), ecc.. Tanto è vero che da un anno a questa parte ci sono processori che funzionano a 3.6GHz e già da oltre 5 anni ci sono i processori attuali che in overclock funzionano stabilmente sopra i 4GHz con picchi di oltre 5GHz! I sistemi multicore non sono un ripiego ma un'esigenza! In un PC SERVE compiere più operazioni contemporaneamente (il sistema operativo deve svolgere i suoi compiti mentre il programma utente esegue le varie elaborazioni impartite e allo stesso tempo l'interfaccia utente deve essere reattiva vedi per esempio il lavoro fatto su windows 7). Ed è errato dire che un monocore è SEMPRE più veloce rispetto a un multicore perchè questa affermazione non risponde a verità. Probabilmente la tua affermazione è fuorviata dal fatti che siamo abituati a pensare in modo sequenziale. C'è una grossa fetta di applicazioni che sono molto più efficienti su un'architettura multicore rispetto che a un monocore. Molti algoritmi di calcolo lineare, buona parte delle applicazioni di render, una buona parte dei filtraggi sulle immagini, diversi algoritmi di decompressione sono alcuni esempi di applicazioni che funzionano più velocemente su una architettura multicore rispetto a una monocore. Questo perchè la struttura degli algoritmi prevede una fase elaborativa a blocchi indipendenti e delle operazioni di assemblaggio complessivo. Volevo anche farti notare che le CPU multicore monolitiche funzionano esattamente come il processore dalla PS3 che tanto hai lodato. Anzi quello della PS3 è una implementazione semplicistica delle ottimizzazioni fatte principalmente da intel sulle architetture monolitiche (cioè 2 o più core integrati sullo stesso pezzo di silicio e non 2 o più core semplici e poi collegati insieme sullo stesso case). Concordo sui discorsi relativi all'atom anche se non completamente. L'atom non è altro che il restyling dei primi pentium 4 che rappresentavano l'estremizzazione dell'architettura IA32 prima del nuovo corso dato ad intel con lo strappo con il passato e l'evoluzione verso l'architettura più efficiente. E' stata mantenuta bassa la cache e la complessità proprio per minimizzare i consumi che sono stati ulteriormente ridotti grazie all'adozione di un processo produttivo moderno e l'uso di soluzioni evolute (come le nuove istruzioni rispetto al celeron degli anni 2000 o alla modifica dell'HT e compagnia). Probabilmente per gli scopi che si è prefisso hanno ottenuto un buon risultato e secondo me ne vedremo delle belle! |
![]() |
![]() |
![]() |
#4636 |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 1164
|
oooooo.. finalmente sono riuscito ad obbligarti a dare affermazione tecnica.. si si
resta il fatto che in questo test si evince che 4 core non è uguale a 1x4 ma con 4 core e ottimizzazioni brillanti si arriva al 300% e non 400% e poi, ma scusa, ma che eresie sto dicendo? son 3 giorni che dico che si è passati al multicore perchè non era possibile andare avanti, ora mi tiri inballo i problemi fisici derivanti un processore che lavora a frequenze elevate.. appunto.. se volevi più potenza di calcolo dovevi IRRIMEDIABILMENTE andare sul multicore, oppure rimani fermo per 5000 anni sul 3,6ghz monocore e chiusa li ![]() il ripartimento dei lavori su multicore e struttura x86 non è così efficiente come quello di cell, questo perchè le case prodruttrici preferiscono tenere retrocompatibilità piuttosto di aumentare le prestazioni sporadicalmente (come s'è visto con cisc e risc, che ad oggi le cpu son sia cisc che risc) quando con poco potrebbero ricominciare tutto da capo perfezionando, così si arriverebbero a potenze di calcolo esponenziali con minori consumi energetici bah comunque atom non è male.. niente da dire p.s. non so se ti sei accorto che stiamo dicendo le stesse cose.. solo che io dico che si è passati al multicore perchè non vi era possibilità di continuare nell'altra strada, e te dici che si è passati al multicore per scelta, anche PERCHÈ non vi era possibilità di proseguire nell'altra strada, e quindi, morale della favola, probabilmente, hai ragione te perchè ci lavori, ma ho ragione io perchè di si ![]() l'unico vantaggio del multicore sta nella possibilità di eseguire più thread nella cpu, uno per core, e così fai il vero parallelo, ma con le architetture out-of-order ci vai molto vicino a sta cosa, basta piazzare un HT e carichi più thread e così il singlecore si inzozza meglio. E poi il link sopra ha dimostrato che 4core =/ da 1x4, solo il dualcore in rari casi = 1x2, quindi, se 1x2 =/ da 2 => 2 > 1x2 (si insomma.. si capisce dai ![]()
__________________
Zotac ION ITX P-E su2300 @ 1.88ghz, 4gb ram @ 1250, sapphire 6450 512mb, ssd samsung 830 128gb, win7, Mountain Lion! ![]() Diverse vendite di cui non ricordo i nick degli acquirenti. utente Eska consigliatissimo! |
![]() |
![]() |
![]() |
#4637 |
Senior Member
Iscritto dal: Jan 2006
Messaggi: 1439
|
Mi sa che tu non capisci bene l'italiano!
Oppure ci sei...o ci fai! ![]() Sono stufo di riscrivere sempre le stesse cose e tu nei tuoi scritti non sforzarti di leggere quello che scrivo! Lo vuoi capire che una CPU monocore che va internamente a 10GHz non serve a nulla! Il sistema operativo, anche il tanto odiato windows...fin dalle vecchie versioni simula il multitask e ciò vuol dire che introduce un overhead (a volte non trascurabile) per creare un ambiente virtuale formato da più processori in ambiente monoprocessore o multi processore. Ti ho già spiegato che il problema sono le RAM e le periferiche quindi a parità di condizioni al contorno non puoi aumentare la frequenza operativa a tuo piacimento anche se la tecnologia te lo permette. Un 4 core va al 300% rispetto a un monocore per via della RAM e dell'IO. 4 core fanno molti più accessi al bus di un monocore e quindi inevitabilmente qualcuno deve aspettare e le prestazioni non sono una moltiplicazione! Però se prendi un 4 core con ogni core che funziona a 1GHz e un monocore che funziona a 4GHz con lo stesso hardware a contorno (memorie, periferiche, ecc.) vedrai che ci mette lo stesso tempo a fare le stesse elaborazioni e questo perchè a 4GHz le RAM avranno molti wait-state che a 1GHx non hanno e quindi la maggior occupazione del bus del 4 core è compensata dai tempi di attesa generati dal monocore a 4GHz per via della frequenza di bus 4 volte più elevata! Ma penso che questo discorso non lo capirai mai! Così come non capirai mai che il multicore è un'esigenza e non una scelta per via del poco aumento di prestazioni all'aumento della frequenza operativa della CPU. E questa esigenza è dettata dal dover necessariamente svolgere più operazioni contemporaneamente. Daltronde tutti noi abbiamo prova che la macchina migliore e più efficiente che c'è è parallela e non sequenziale monocore! Ed è il cervello! Comunque noto che ti piace avere l'ultima parola anche a costo di ripeterti e di fare affermazioni grossolane alimentando di fatto flame. A me non piacciono i flame e i discorsi sterili per cui mi fermo qui invitando tutto a cercasi i propri riscontri in giro con un pò di studio e sane valutazioni. Mi spiace solo se qualche utente si fa strane idee per certi argomenti trattati con leggerezza. PS: Io e te non diciamo assolutamente la stessa cosa! |
![]() |
![]() |
![]() |
#4638 |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 1164
|
in poche parole conviene aspettare un atom quadcore per avere un super processore che consumi poco e che rulli tanto
domanda: per un sistema operativo, visto che il concetto appena spiegato consiste nel parallelizzare il più possibile, quanti core sono necessari per avere un corretto funzionamento del tutto? Ovvero, semplificando la domanda, per un sistema operativo, parlo di bassa programmazione, lato kernel ecc ecc, aumenta esponenzialmente il rendimento all'aumentare dei core? Ovvero, il sistema operativo viene programmato per lavorare in single che multicore, e su ogni macchina si deve "adattare", perchè può trovarsi il singlecore da 5ghz e il sixCore da 3ghz, avrà un qualche sistema interno che gli regola la disposizione dei carichi per le varie cpu, a quanto ammonta il rendimento massimo per questo lavoro? Un 128core renderebbe il sistema operativo rapidissimo? p.s. hai ragione te, il multicore tende a limitare il wait state delle memorie, ho sempre visto l'aumento di frequenza come un limite fisico impossibile da superare e il parallelismo come un innovativo che ricade semplicemente per non bloccare l'aumento di prestazione. Bah. Si in effetti, l'unica pecca del parallelismo sta nei calcoli contigui, dove per eseguire la riga successiva c'è bisogno del risultato precedente, ma se fai eseguire un thread per cpu, sei sicuro che ogni cpu lavori al 100% contiguamente rispetto a se stessa e non avvengono colli di bottiglia, e così un multicore può lavorare tranquillamente con i vantaggi che ne consegue. Garluk, mi hai convinto ![]()
__________________
Zotac ION ITX P-E su2300 @ 1.88ghz, 4gb ram @ 1250, sapphire 6450 512mb, ssd samsung 830 128gb, win7, Mountain Lion! ![]() Diverse vendite di cui non ricordo i nick degli acquirenti. utente Eska consigliatissimo! Ultima modifica di Ibanez86 : 22-04-2010 alle 10:25. |
![]() |
![]() |
![]() |
#4639 |
Senior Member
Iscritto dal: Jan 2006
Messaggi: 1439
|
Non esiste una regola perchè dipende dalle applicazioni e dal fine per cui è stato scritto quel sistema operativo.
Il sistema operativo (e parlo del nucleo base che molti chiamano kernel anche se è un termine leggermente impreciso ma va bene per capirci) ha 2 componenti fondamentali: il primo è l'hardware abstraction level e il secondo è lo scheduler. L'hardware abstraction level è una collezione di funzioni che servono a nascondere i dispositivi fisici e creano un ambiente virtuale mettendo a disposizione del sistema operativo stesso e delle applicazioni una serie di dispositivi con delle caratteristiche ben definite e praticamente in modo indipendente dall'hardware della macchina. Lo scheduler, invece, è il cuore del sistema operativo e serve a gestire i core e le CPU. Lo scheduler in pratica 'decide' su quale core/cpu, quando e per quanto tempo deve essere eseguito un task. Lo scheduler è l'artefice del multitask nei sistemi monocore/monoprocessore. Tieni anche presente che ci sono dei task interni al sistema operativo e che tu non vedi e che sono necessari al sistema operativo stesso per funzionare. Per esempio la gestione dei dischi o di mouse e tastiera viene eseguita con dei task interni indipendenti e che girano in modo trasparente. In questi casi lo scheduler da priorità a questi task rispetto ai programmi. Fatta questa premessa capisci bene che la tua domanda si presta a più risposte tutte corrette. Posso dirti che nelle architetture che conosci tu non serve molto far crescere il numero di core perchè il bus diventa il collo di bottiglia. Cerco di farti capire. Supponiamo di avere un computer con 16 core e un unico gestore della memoria. I core per funzionare devono leggere e scrivere informazioni sulla memoria. Però la memoria è condivisa fra tutti i core per cui se il numero di core è alto ci saranno dei core che saranno bloccati perchè attendono i dati dal gestore della memoria. Questo per dirti che difficilmente vedremo processori con più di 8 core perchè sarebbe uno spreco. Avremo sicuramente un ulteriore evoluzione sulle memorie ma la struttura dei PC per come siamo abituati a vederli oggi cambierà presto. Non so dirti verso cosa perchè l'architettura ia86/ia64 va rivista direi anche profondamente. Oggi i grandi calcolatori sono fatti da celle formati da processori multicore e da RAM locali tutti connessi insieme da link ad alta velocità che servono a interagire e distribuire i dati e controllo. Sicuramente ne vedremo delle belle nei prossimi anni Per dare qualche risposta in più ai tuoi quesiti ti dico che è lo scheduler che distribuisce i carichi di lavoro e decide un task su quale cpu/core girare, quando e per quanto tempo. L'efficienza poi dipende molto da quanti core/cpu ha a disposizione, dal numero di task da far girare e dagli algoritmi di allocazione usati. Capisci bene che se ho 200 task da far girare e ho solo 2 core ho un efficienza più bassa rispetto ad avere 8 core perchè il cosiddetto 'cambio di contesto' ha un 'costo'! Per cambio di contesto si intende l'insieme delle operazioni che lo scheduler deve fare per mettere in standby un task e mandarne in esecuzione un altro (quindi salvare tutti i registri della CPU, lo stato del processo e via dicendo). Capisci bene che un cambio di contesto impiega tempo di CPU che viene tolto all'esecuzione dei programmi. Se ci sono troppi cambi di contesto una parte significativa del tempo di CPU viene impiegato dal sistema operativo per cambiare task con un'efficienza molto bassa. Se qualcosa è poco chiaro chiedi pure. |
![]() |
![]() |
![]() |
#4640 |
Senior Member
Iscritto dal: Jun 2006
Messaggi: 1164
|
si si beh, a conti fatti ste cose già le conoscevo, non così approfonditamente ma, ho le idee ben chiare su come funziona l'hardware di un pc.
L'unica cosa a cui non avevo mai fatto caso erano i wait-state, e si, credevo che il mutitasking delle cpu multicore fosse diverso, ovvero, multicore visto come un singolo core nella sua semplicità, istruzione A core1, struzione B core due, nel caso D fosse contiguo a C, un core si "blocca" per 1 (o eventualmente più cicli) per aspettare il risultato e integrarlo in C, non credevo fossero così evoluti i sistemi operativi odierni, o almeno, un multicore che fa da multithreading ha senso, sfrutta il concetto del Cell della ps3 I processi "invisibili" come hai detto te lavorano principalmente tramite IRQ e quindi hanno priorità elevata perchè sono eventi hardware, quello è scontato, non vi sarà mai possibilità, in nessun sistema operativo, di bloccare il thread corrispondende alla gestione tastiera, non ha senso! E ovviamente questi processi hanno accesso root e priorità alta rispetto alla normale gestione, come il kernel in se, ovvio, sennò come fai a far girare i programmi se il kernel non lavora in root ad altra priorità? ![]() L'unico dubbio che ho in merito, ricade sulla tua affermazione del cambio di architettura, cioè, ok che i sistemi x86 siano letteralmente sempliciotti, come ho detto, se volessero potrebbero riscrivere da capo in chiave RISC, tornare ai vecchi processori power e avere capacità di calcolo infinite con frequenze basse, un processore RISC alle frequenze attuali e in più multicore, ha una performance di calcolo paurosa, sarà anche 'ritardato' come processore, ma ci mette 1/10 a fare le stesse operazioni semplici ![]() Secondo me sai cosa accadrà nel futuro? Obbligo al 64bit, sistemi multicore sempre più estesi, secondo me andranno oltre agli 8 core, e magari doppio bus, con doppi blocchi memoria, in modo che un blocco di core gestisca un bus e l'altro il successivo, con la mignaturizzazione dei chip diminuiscono le potenze, e con il passare del tempo ogni programma sarà gestito in multithread, quindi a rigor di logica si andrà avanti per altri 20-30 anni con sto sistema, e FORSE poi cambieranno qualcosa, ma dubito
__________________
Zotac ION ITX P-E su2300 @ 1.88ghz, 4gb ram @ 1250, sapphire 6450 512mb, ssd samsung 830 128gb, win7, Mountain Lion! ![]() Diverse vendite di cui non ricordo i nick degli acquirenti. utente Eska consigliatissimo! |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 06:11.