View Full Version : 48 core in un singolo chip x86 per il futuro di Intel
Redazione di Hardware Upg
03-12-2009, 09:22
Link alla notizia: http://www.hwupgrade.it/news/cpu/48-core-in-un-singolo-chip-x86-per-il-futuro-di-intel_30958.html
Intel mostra un nuovo prototipo frutto delle ricerche Tera-Scale: 48 core integrati capaci di gestire codice x86, per applicazioni cloud computing
Click sul link per visualizzare la notizia.
48 Core cosi vista si apre in un ms
roccia1234
03-12-2009, 09:36
48 Core cosi vista si apre in un ms
Puoi mettere anche 2000 core, ma se l'hard disk è un vecchio maxtor da 80 gb ora che vista si apre diventi vecchio. Piuttosto un bel ssd farebbe al caso tuo ;)
bah... penso che l'unica cosa interessante sian la gestione energetica tra voltaggi e frequenza... Lambree ha + core, ed anch'esso supporta le istruzioni x86...
C'è sempre la legge di Amdahl a porre un limite :D
http://it.wikipedia.org/wiki/Legge_di_Amdahl
Simedan1985
03-12-2009, 09:40
Cmq Intel la vedo proprio bene ,ha i soldi e investe e investe sullo sviluppo ,diciamo che nn si culla.....ecco perche poi ha un vantaggio di 2Ghz(virtuali) su amd a pari frequenza.
Severnaya
03-12-2009, 09:44
nn apriamo dibattiti in merito plz :D
2 Ghz mi pare un po' troppo :asd:, anche perchè l'HT non permette un incremento onnipresente :D
Dany16vTurbo
03-12-2009, 09:49
Sarò cieco ma la ventola sul dissipatore non ha nessuna utilità? :D
shaka444
03-12-2009, 10:18
Visto che ancora nessuno l'ha detto
Chissà come girerà crysis ^^
SwatMaster
03-12-2009, 10:42
Cmq Intel la vedo proprio bene ,ha i soldi e investe e investe sullo sviluppo ,diciamo che nn si culla.....ecco perche poi ha un vantaggio di 2Ghz(virtuali) su amd a pari frequenza.
Se, come no.
Questo non è nemmeno fanboysmo, ma ignoranza. -_-
Visto che ancora nessuno l'ha detto
Chissà come girerà crysis ^^
Di merda, missà, dato che Crysis è parallelizzabile come mia nonna.
...Poi ti voglio vedere senza vga, lol.
JOHNNYMETA
03-12-2009, 10:53
Penso che uno di quei core non sia circa come un Atom ma circa come la metà della metà di un Atom.
Quindi Crysis neanche parte.
killer978
03-12-2009, 10:55
Crysis non beneficia delle CPU , tra un Core 2 ed un i7 anche con freq maggiori si guadagna meno di 2fps :asd: a dire il vero manco le tre nuove generazioni di vga uscite negli ultimi anni hanno permeso di aumentare i frames
ma che capocciaha il tizio tedesco intervistato per primo :eek:
Non sarà molto per Crysis, ma di certo si evita di essere CPU limited con le attuali VGA top di gamma, sia singole che in SLI/CrossFire in tutti gli altri giochi o benchmark che invece sono multicore.
Oggi con un i7 a 4.4GHz e una 5970 sei CPU limited ;)
newtechnology
03-12-2009, 11:08
Se, come no.
Questo non è nemmeno fanboysmo, ma ignoranza. -_-
Di merda, missà, dato che Crysis è parallelizzabile come mia nonna.
...Poi ti voglio vedere senza vga, lol.
Bhe sarà ignoranza ma le cpu Amd se pur economiche rispetto alla intel a pari di frequenza vanno come gli athlon 64 paragonati a pentium 4 all'epoca ,comunque il phenom 965 be c3 overcloccato a 4,00 ghz in molti test sta sotto al core i7 920 , in alcuni ambiti addirittura il i5 750 va di più ,siamo onesti , costeranno poco , andranno pure bene , ma come prestazioni a pari di clock se paragonati a quelli intel fan proprio schifo, ci sono dei test dove addirittura fsb (tecnologia di 7 anni fà) del core 2 quad è più veloce in scrittura sulle ram del phenom II nonostante questo abbia memory controller integrato.
Non voglio sminuire in nessun modo Amd , come ripeto i prodotti come Athlon x4 620 li ritengo indispensabili per abbattere il prezzo su cpu x4 ma nella fascia alta proprio non ci siamo , è stata la prima sbadierare cpu 6 core ma come abbiamo visto nonostante l'incremento di 2 core ancora non riesce ad avvicinarsi alle prestazioni di un quad core intel , senza contare che su ebay cominciano gia a trovarsi processori es core i9 32nm a 6-core ,ne ho seguiti in asta ben 5 tra xeon e i9 (tutti con molti free) uno per esempio è questo
http://cgi.ebay.com/Intel-6-Core-Xeon-Westmere-2-4GHZ-LGA1366-CPU_W0QQitemZ150394036622QQcmdZViewItemQQptZCPUs?hash=item23042ee18e
Test i7 975 vs phenom 965 c3
http://www.guru3d.com/article/phenom-ii-x4-965-be-revision-c3-review-test/10
SwatMaster
03-12-2009, 11:18
Bhe sarà ignoranza ma le cpu Amd se pur economiche rispetto alla intel a pari di frequenza vanno come gli athlon 64 paragonati a pentium 4 all'epoca ,comunque il phenom 965 be c3 overcloccato a 4,00 ghz in molti test sta sotto al core i7 920 , in alcuni ambiti addirittura il i5 750 va di più ,siamo onesti , costeranno poco , andranno pure bene , ma come prestazioni a pari di clock se paragonati a quelli intel fan proprio schifo, ci sono dei test dove addirittura fsb (tecnologia di 7 anni fà) del core 2 quad è più veloce in scrittura sulle ram del phenom II nonostante questo abbia memory controller integrato.
Non voglio sminuire in nessun modo Amd , come ripeto i prodotti come Athlon x4 620 li ritengo indispensabili per abbattere il prezzo su cpu x4 ma nella fascia alta proprio non ci siamo , è stata la prima sbadierare cpu 6 core ma come abbiamo visto nonostante l'incremento di 2 core ancora non riesce ad avvicinarsi alle prestazioni di un quad core intel , senza contare che su ebay cominciano gia a trovarsi processori es core i9 32nm a 6-core ,ne ho seguiti in asta ben 5 tra xeon e i9 (tutti con molti free) uno per esempio è questo
http://cgi.ebay.com/Intel-6-Core-Xeon-Westmere-2-4GHZ-LGA1366-CPU_W0QQitemZ150394036622QQcmdZViewItemQQptZCPUs?hash=item23042ee18e
Test i7 975 vs phenom 965 c3
http://www.guru3d.com/article/phenom-ii-x4-965-be-revision-c3-review-test/10
Son d'accordo con te che i Phenom II non raggiungono le prestazioni degli i7, ma devi anche ricordare che quest'ultimi godono dell'HyperThreading e che hanno un'architettura NUOVA.
Purtroppo per AMD, i primi Phenom facevano davvero cagare, e la seconda versione può competere "solo" con la serie Core di Intel, a mio avviso ancora più che abbondante (non sufficiente, eh) per la maggior parte degli impieghi. A parte i benchmark e qualche software specifico, AMD e Intel sono alla pari, non c'è storia.
...Se proprio vuoi fare il pignolo, la differenze è di un pugno di Mhz. Roba da poco, visto che i Phenom II te li mettono praticamente nelle patatine.
Il supercomputer me lo faccio con le ps3!!!
;)
Simedan1985
03-12-2009, 12:04
Se, come no.
Questo non è nemmeno fanboysmo, ma ignoranza. -_-
.
Apparte il fatto che nn sono fanboy,ho sempre comprato ciò che meglio và Amd/intel Nvidia/Ati....Poi magari mi spieghi che ho detto, per essere definito ignorante!!!
Simedan1985
03-12-2009, 12:13
A parte i benchmark e qualche software specifico, AMD e Intel sono alla pari, non c'è storia.
...Se proprio vuoi fare il pignolo, la differenze è di un pugno di Mhz. Roba da poco, visto che i Phenom II te li mettono praticamente nelle patatine.
:tapiro:
Visto che ancora nessuno l'ha detto
Chissà come girerà crysis ^^
Non intenderlo come un attacco personale: di questa storia di "come gira crysis" ad ogni santa notizia di ram/cpu/schede video/ecc. non se ne può veramente più.
Questa "uscita" era simpatica (più o meno) le prime volte, ma adesso ha decisamente stancato.
A mio avviso i moderatori dovrebbero prendere qualche tipo di contromisura: se fossi stato io a scrivere la notizia avrei trovato frustrante leggere questo tipo interventi. In effetti, se ci pensi, l'unico contributo del tuo intervento è stato quello di impoverire la discussione.
Tuvok-LuR-
03-12-2009, 13:16
Oggi con un i7 a 4.4GHz e una 5970 sei CPU limited ;)
ma anche no (http://www.legionhardware.com/document.php?id=869&p=7)
SwatMaster
03-12-2009, 13:27
Apparte il fatto che nn sono fanboy,ho sempre comprato ciò che meglio và Amd/intel Nvidia/Ati....Poi magari mi spieghi che ho detto, per essere definito ignorante!!!
Ho semplicemente detto che dimostri ignoranza affermando che c'è una distanza di 2Ghz "virtuali" (?) tra i proci Intel ed i proci AMD, non che sei un ignorante in generale. Menchemeno t'ho dato del fanboy. ;)
:tapiro:
Staffelli, Striscia la Notizia, a voi studio.
Simedan1985
03-12-2009, 13:50
Come già detto in alcuni ambiti il Phenom II ,neanche a 4.00Ghz sta dietro al''i920.....Certo 2Ghz è po un esagerazione .Ma a mio avviso un range che va da 1Ghz a 1.5 può starci tutto.....poi mica è colpa di intel se amd nn lancia nuove architetture performanti .
Detto ciò ,lodi e lodi ad Amd che ci permette una piattaforma quad a meno di 150 euro (mobo + cpu)...Però la mia impressione da tre anni a questa parte sembra un inseguimento continuo,con un vantaggio del primo che aumenta sempre .Vedremo al giro di boa degli esacore ,magari si stabilizzassero un po le forze ,ne guadagneremo tutti.
ma anche no (http://www.legionhardware.com/document.php?id=869&p=7)
da dove viene quella foto??? quegli fps con quelle impostazioni li faccio io con 2 4870pcs+ crossfire e q6600 @ 3.2 su sk madre p5q-e impossibile ke li fai con un i7920 e 5970..saranno molti di più :D
The3DProgrammer
03-12-2009, 14:23
Come già detto in alcuni ambiti il Phenom II ,neanche a 4.00Ghz sta dietro al''i920.....Certo 2Ghz è po un esagerazione .Ma a mio avviso un range che va da 1Ghz a 1.5 può starci tutto.....poi mica è colpa di intel se amd nn lancia nuove architetture performanti
come se il 920 funzionasse veramente a 2.6 GHz... a 2.6 non ci va praticamente mai
Simedan1985
03-12-2009, 14:35
come se il 920 funzionasse veramente a 2.6 GHz... a 2.6 non ci va praticamente mai
Ma quello è un pregio di quell'architettura.....
The3DProgrammer
03-12-2009, 15:01
si ok, ma se parliamo di confronto prendendo come punto di riferimento per la comparazione la frequenza allora non si può dire che confrontiamo un 2.66 con un 4 GHz, se il primo a 2.66 in realtà non ci va mai. Attenzione non sto dicendo o sottointendendo come fanno alcuni che per un test equo si dovrebbe disattivare il turbo, ovviamente non avrebbe senso, ma nel caso in cui si parla di frequenza "pura" questo dato è ovviamente da tenere in considerazione.
Bhe sarà ignoranza ma le cpu Amd se pur economiche rispetto alla intel a pari di frequenza vanno come gli athlon 64
6ot un mondo, qui si parla di questo componente 48c
phicrand_6358
03-12-2009, 15:13
come se il 920 funzionasse veramente a 2.6 GHz... a 2.6 non ci va praticamente mai
Ma quello è un pregio di quell'architettura.....
intanto direi che i paragoni si dovrebbero fare in rapporto a parità costo piattaforma...
poi se fai confronti a parità di clock non te ne puoi uscire dicendo che il turbo è un pregio di quell'architettura visto che overclocca la cpu... è un falso ideologico. ;)
i phenom2 sono al livello dei c2q e di molti i5 in molti ambiti, in altri ambiti sono di poco inferiori...
i core i7 coprono una fascia ancora non coperta da Amd e sono il top attualmente per desktop.
questa è la verità generale, dipende poi se si utilizza il pc per alcuni software specifici che rendono meglio con una cpu la scelta di quest'ultima..
Simedan1985
03-12-2009, 15:14
si ok, ma se parliamo di confronto prendendo come punto di riferimento per la comparazione la frequenza allora non si può dire che confrontiamo un 2.66 con un 4 GHz, se il primo a 2.66 in realtà non ci va mai. Attenzione non sto dicendo o sottointendendo come fanno alcuni che per un test equo si dovrebbe disattivare il turbo, ovviamente non avrebbe senso, ma nel caso in cui si parla di frequenza "pura" questo dato è ovviamente da tenere in considerazione.
Si in effetti vorrei vederlo un test a frequenze fisse ....ma comunque:
http://www.hwupgrade.it/articoli/cpu/2264/965_920.png
Passando al confronto tra Phenom II X4 965 Black Edition e Core i7 920 si nota in modo netto il vantaggio architetturale di quest'ultima cpu, con un margine medio pari al 18,8% registrato nei nostri test. Vi sono alcuni ambiti che avantaggiano in modo netto la proposta Intel, ma notiamo come in tutte le applicazioni, fatta eccezione per Windows Media Encoder 9, l'architettura Nehalem riesca a sopravanzare nonostante il netto divario in termini di frequenza di clock (2,66 GHz contro 3,4 GHz).
Mettiamo anche che vada a 3.ghz(che poi se nn ricordo male nn sono tutti i core)...per me il divario di oltre 1ghz rimane
phicrand_6358
03-12-2009, 15:21
se segui il mio ragionamento capirai che se usi euler o comprimi/decomprimi con winrar tutti i giorni files da svariati giga prendi l'i7 senza pensarci un miliardesimo di secondo...
se giochi, soprattutto a certe risoluzioni, investi la differenza del costo delle piattaforme in una vga superiore...
direi di smetterla con amd vs intel in qualsiasi salsa se non volete fare il ponte dell'immacolata anche su hwu, commentate solo terascale grazie
Perseverance
03-12-2009, 15:29
Mi sembra di aver capito che queste piattaforme si rivolgono ad un ambito NON-Desktop. Cosa ci lascieranno a noi comuni mortali?
E i commenti sul chip terascale dove sono?
SIETE OFF TOPIC come sempre.
Per sfruttare le capacità di questi chip(raggruppamento/smistamento di core/tile per processo/thread, regolazione dei voltaggi ecc) i programmi devo utilizzare determinate librerie che intel fornirà, basterà usare le librerie con qualsiasi compilatore o si dovrà compilare il programma con un compilatore intel oltre ad usare il toolkit per le suddette librerie, o dovrebbe essere gestito tutto dal sistema operativo.
Imho chredo sia meglio far gestire il tutto al sistema operativo, almeno fino ad oggi è lui che regola frequenz e voltaggi via driver e lo scheduler smista i processi e i thread.
Sarebbe ottimo se bastasse fare il kernel seguendo determinate specifiche(da intel pubblicate) in modo che gli os supportino tutte queste features. Poi cmq rimane al programmatore cercare sia di utilizzare algoritmi con il pi alto grado di parallelismo, sia programmare in multitrheading.
Non sono esperto in materia voi cosa ne pensate
Gnubbolo
03-12-2009, 15:36
commentare il terascale senza conoscerne le innovazioni architetturali è difficile.
le SSE4 danno un vantaggio di più del 50% in certi ambiti rispetto alle versioni precedenti, sicuramente anch'esso presenterà qualche nuova istruzione.
ma la stramaggioranza di noi non ha solo software appena sfornato quindi se uscisse non potremmo spremerlo a fondo.
@leptone con openmp parallelizzare è facilissimo, non esiste più lo sbattimento per controllare i threads, es: basta specificare che si vuole il for parallalelo e poi il compilatore fa tutto lui.
. A parte i benchmark e qualche software specifico, AMD e Intel sono alla pari, non c'è storia.
...Se proprio vuoi fare il pignolo, la differenze è di un pugno di Mhz. Roba da poco, visto che i Phenom II te li mettono praticamente nelle patatine.
:sofico: :sofico: :sofico:
LOL.
:sofico: :sofico: :sofico:
LOL.
quale parte del mio precedente post non hai capito?
Questi processori (o questa tipologia) li avremo nei desktop tra molti anni, forse anche 10.
Cmq scorgo una inversione di tendeza(considerando una ambito non server ma desktop/home):
Prima la era cpu singola, e lo scheduler divideva il tempo cpu per ogni processo/therad(ogni os ha nomi e metodi/tecniche diversi/e come per es le slice di bsd/solaris[non ne sono certo forse ho detto una stupidaggine, ho solo letto qualcosa dalle riviste]).
Insomma prima i vari processi si contendevano la risorsa CPU e lo schduler, divideva la CPU tra i vari processi o thread che compongono un singolo processo. La strada in PASSATO era quella di aumentare la frequenza o comunque di aumentare la potenza della cpu in modo che una singola cpu potesse svolgere + processi/thread contemporaneamente ovvero in un minor tempo.
Quindi la logica era: 1 CPU--> tanti processi/thread.
Invece credo di aver capito che con l'approccio terascale un processo utilizza una mini-core, e se il mini-core ha ancora potenza a disposizione invece di farsi accollare un altro processo diminuisce la sua frequenza e il suo voltaggio. E un altro processo avrà un altro suo mini-core egualmente, invece di dividerlo(fino a che non si esauriscono i mini-core).
Oppure nel caso di applicazione multi-thread, lo scheduler dovrebbe assegnare al processo(multi-thread) un gruppo di mini-core. Tipo (facciamo come esempio un caso semplice/ideale) se un processo sviluppa 10 thread, lo scheduler assegnerà 11 mini-core, 1 per il processo(main/gestore di flussi/ecc) e 10 per i ciascun thread. E poi ogni mini-core regolerà frequenza e tensione in base al proprio carico di lavoro (abbassandola, ipotizzando che ogni mini-core ha un carico/utilizzo del 50% con i suddetti thread).
Quindi ogni mini-core ha il suo processo o thread e lavora a frequenza voltaggio ridotto.
Ovviamente, se tutti i mini-core sono impegnati in un singolo tread/processo che sfrutta la metà della loro potenza lavorando a ridotta frequenza/voltaggio, e c'è bisogno di altra potenza per elaborare altro (es avvio altre applicazioni) i thread/processi verrano ridistribuiti dallo schduler in modo diverso.
Tornando all'esmpio di prima del processo con 10 thread che impegna 11 mini-core al 50%, lo scheduler potrebbe assegnare 6 mini-core: 1 per il processo/main e 5 per i 10 thread, e quindi avremmo che invece di avere 10thread->10mini-core(con carico del 50%, e voltaggio e frequenza ridote), avremo 10thread->5mini-core(con carico,frequenza e voltaggio al 100%) e in questo modo si libera potenza/risorsa per le altre applicazioni.
Ovviamente molto dipende dal rapporto througthput/consumi/frequenza/voltaggo che tipo di decisioni prenderà lo schaeduler.
Quello che voglio dire è che prima c'era il modello dei processi/thread che si contengono una cpu, e delo scheduler che divide e assegna la risorsa cpu che stava sempre impegnata(soprattutto anni fa, ora avviene quando non ci sono colli di bottiglia[per esmpio se si converte un video e contemporaneamente si utilizza matlab o cmq programmi pesanti contemporaneamnete, oppure con un ssd]).
Invece il modello futuro prevede di SPALMARE i processi/thread sui tanti mini-core. Questo per ottimizzare la gestione energetica, dato che così molti mini-core possono essere spenti, e gli altri avere frequenza e voltaggio adeguati.(Per esmpio le cpu odierne sopratutto desktop non hanno frequenza e voltaggio totalmente indipendenti, e raramente vanno in idle).
Spalmere i processi/thread porterà/e a un diverso modello/mentalità di context switch che imho sfrutterà meglio la potenza della cpu, ovvero la cpu avrà una maggiore efficienza, quindi si assottiglierà il margine tra prestazioni teoriche ed effettive (FLOPS[o quello che volete voi] teorici ed effettivi sfruttatti da un'appliocazione) il tutto con una maggiore efficienza energetica
Ma un'altra cosa che verrà ottimizzata è lo switch tra i vari processi. Non sono ferrato in materia ma al giorno d'oggi le cpu sprecano molto tempo nel passare da un processo all'altro (context swich) e quindi lavorare su dati diversi che si stanno in ram ma non sempre nella cache della CPU, e (quasi)mai nei registri dove la cpu realmente opera. Quando una cpu ha da gestire diversi processi occupa molto tempo nel portare i dati dalla cache ai registri. Non perchè i processi sono molti ma perchè è un'operazione di IO che di suo richiede determinati tempi e in + genera tempi morti per la CPU.
E un'altra cosa credo che il metodo terascale miglorerà, sarà la gestione del bilanciamento delgi IRQ , e quindi di conseguenza miglioramenti nell IO di sistema eliminano molti tempi morti per la cpu. IRQ e IO diventano sempre + importanti per le performance e la reattività man mano che aumentano le prestazioni delle CPU, in quanto incidono di +, rispetto a vari anni fa quando erano irrilevanti rispetto alla potenza della CPU.
Tra l'altro il bilanciamento di IRQ e IO produce consumi ( ridurre questi due elementi sui portatili aiuta molto, e sui fissi sono operazioni con un rapporto performance/watt molto sconveniente) [ricordate che IO non è solo caricare dal disco il che lo risolveremo a breve con gli SSD, ma in generale tutte le operazioni del chipset, ma questo è un argomento vasto e generale meglio evitare ]
scusate il post lungo, e scusate gli eventuali errori sia di battitura sia concettuali ho scritto tutto di getto dopo edito
quasi, leptone, quasi...
la "filosofia" tera scale (scale, come Xscale, i bei processorini MIPS che Intel ha venduto a Marvell) dovrebbe essere un pelino piu' profonda.
una CPU e' composta da pipeline di computazione; per aumentare la velocita' queste pipeline, sui processori monocore, sono state via via allungate, a discapito di consumi e di computazioni finite in unita' di tempo (con aggravanti nella predizione sempre piu' profonda del caricamento dati per rifornire la pipeline lunga).
1 core, una pipelane a 32 stadi... oggi si sta' cosi'.
se invece unissimo 2 core in sequenza, con 2 pipeline consecutive che fanno una sola pipeline?
avremmo la possibilita' di computare thread decisamente complessi, con ALU articolate, ma allo stesso tempo, usare pipeline piu' corte per processare ALU meno complesse, ed in un codice nato con ALU a 8 bit e man mano arrivato a 64 bit, la diversita' del codice e' decisamente elevata ed e' problematica la retrocompatibilita'.
facendo cosi' potremmo utilizzare ALU da 8 bit su un singolo core, mentre per quelle piu' lunghe, rendere consequenziali piu' core e processare ALU complesse a 64 bit...
l'evoluzione, e nemmeno tanto lontana, e' di utilizzare uno scheduler non solo nel OS, ma anche nel processore, che faccia risultare virtualmente l'intero processore composto da un solo core, ma in effetti dividendo i thread e mettendo in serie i singoli micro core per farne diventare uno piu' "computazionale".
gia' oggi si potrebbe ottenere (anzi, gia' esisteva con l'efficeon) con un layer software, la virtualizzazione di un multicore in un monocore, ma oggi non ci sarebbero vantaggi, perche' le pipeline dei moderni multicore sono comunque progettate per calcoli molto complessi, e percio' sono molto lunghe, rendendo percio' la computazione di un calcolo semplice complessa ed esosa quanto quella di un calcolo complicato, ossia in tot cicli di clock, percio' in tot energia consumata.
efficeon girava con codice VLI a 256 bit, ricodificato da qualsiasi altro codice (ma si e' visto solo per X86 fino a 64 bit) da un layer software che virtualizzava la CPU...
era solo ad un core, percio' per eseguire codice a 256 bit efficacemente doveva avere anche delle belle pipeline, pur essendo essenzialmente un MIPS.
un efficeon di oggi avrebbe 8-16 core piccoli, ed un layer software di virtualizzazione con uno sheduler che ordinava i core in modo da processare al meglio il codice.
viene da solo che se hai una miriade di semplici calcoli, puoi usare tutti i core ed ottenere un elevatissimo rapporto thread/clock, tanto che alla fine puoi abbassare la freqenza per rimanere comunque in un adatto range di funzionamento, e risparmiare cosi' energia...
e' un concetto di efficenza.
ad oggi questa mossa potrebbe farla ARM, ma sembra non interessata..
nudo_conlemani_inTasca
03-12-2009, 19:03
Ha il testone.. è deformed, come i cartoni animati giapponesi.. :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.