View Full Version : Intel, chip a 48 core per gli smartphone e tablet di domani
Redazione di Hardware Upg
01-11-2012, 09:01
Link alla notizia: http://www.hwupgrade.it/news/tablet/intel-chip-a-48-core-per-gli-smartphone-e-tablet-di-domani_44469.html
Negli Intel Lab si pensa alle piattaforme di domani e la via sembra chiara: drastico aumento dei core nei SoC per tablet e smartphone del futuro, con grande attenzione ai consumi
Click sul link per visualizzare la notizia.
emanuele83
01-11-2012, 09:20
Si, come nei primi anni 2000 quando si diceva che per il 2010 si avrebbero avuto frequenze operative a 40 Ghz... Inutile avere un approccio multicore quando le toolsuite di programmazione non sono in grado di supportarli. Secondo me è arduo salire oltre i 6 core (se non per fare pubblicità al proprio prodotto) si avranno sistemi più performanti a minori frequenze occupando meno silicio e integrando anche memorie flash con il sistema operativo oppure direttamente nel SOC il quantuitativo di RAM DDR (3-4-5) necessaria al sistema di funzionare.
coschizza
01-11-2012, 10:22
Si, come nei primi anni 2000 quando si diceva che per il 2010 si avrebbero avuto frequenze operative a 40 Ghz... Inutile avere un approccio multicore quando le toolsuite di programmazione non sono in grado di supportarli. Secondo me è arduo salire oltre i 6 core (se non per fare pubblicità al proprio prodotto) si avranno sistemi più performanti a minori frequenze occupando meno silicio e integrando anche memorie flash con il sistema operativo oppure direttamente nel SOC il quantuitativo di RAM DDR (3-4-5) necessaria al sistema di funzionare.
pero è normale che un azienda investa su piu strade perche non puoi sapere quale sarà la giusta in anticipo (altrimenti non la chiameresti ricerca) e chi avrà investito prima sara quella che ne trarra piu beneficio in futuro. La ricerca di base non si fa su quello che si è certi che sarà il futuro ma volutamente anche su quello che puo sembrare improbabile proprio perche lo scopo delle ricerche in generale è quello di capire le stade giuste o sbagliate da intraprendere cosi in un futuro il know how acquisito ti darà vantaggi nei progetti futuri.
Se una ricerca da esito negativo non è un male è basta ma anche un bene perche singifica che la strada intrapresa è appunto errata e quindi tutti gli altri avranno imparato qualcosa di utile cioè che bisogna guardare da un atra parte.
Prendi per esempio gli studi fatti da intel sulla costruzione di circuiti analogici come trasmettitori wifi in una cpu con tecnologia digitale sono iniziati nel 2002 e tutti intel compresa ha detto che allo stato attuale sembra praticamente impossibile /improbabile poter raggiungere a una soluzione funzionante eppure oggi all' IDF hanno mostrato un prototipo funzionante che all'inizio della ricerca era stato bollato come impossibile. Ora loro che ci hanno investito per un decennio saranno in vantaggio rispetto a tutti gli altri e questo significa che la ricerca ha funzionato, ma sarebbe stato utilissima anche se fosse arrivata a un nulla di fatto.
RAMsterdam
01-11-2012, 10:51
Dopo la corsa ai ghz secondo me anche la corsa ai core finirà e non manca neanche molto
coschizza
01-11-2012, 11:03
Dopo la corsa ai ghz secondo me anche la corsa ai core finirà e non manca neanche molto
non pensare siamo appena all'inizio sulle cpu puoi avere pochi core ma sulle schede gpgpu ne puoi avere centinaia e migliaia (che non sono core ma unita semplici ), quindi nel futuro il processo continuerà ad andarre avanti anche perche sulla frequanza non si puo piu lavorare se non in minima parte e dovendo aumentare le prestazioni contenedo i consumi non esiste una terza via.
mentalray
01-11-2012, 11:11
48 core per gli smartphone di domani ... si ma di quale anno domini?
48 core su un tablet non serviranno mai ma su un server, unico ambito in cui penso possano esistere applicazioni che necessitano veramente del multicore, iniziano ad aver senso.
Negli ultimi anni sicuramente lo sfruttamento del multicore è aumentato e da qui a 10 anni non potrà che migliorare la situazione.
roccia1234
01-11-2012, 11:20
A me non sembra malvagia l'idea di "spezzettare" un core di tot. potenza in 48 core di tot/48 potenza per ridurre i consumi. 48 o qualunque altro numero.
Ad esempio in standby magari basta un solo core attivo e gli altri completamente spenti per consumare poco o nulla. per navigare tra menù o scrivere un messaggio, magari bastano 3-4 core per avere buona/ottima fluidità e velocità.
Certo il problema sono le applicazioni, specie di terze parti, che devono essere in grado di sfruttare a dovere tutti quei core.
marchigiano
01-11-2012, 11:55
probabilmente verranno utilizzati come una gpu, quindi 48 core sono credibili
raziel90
01-11-2012, 12:02
Potrebbe essere una bella cosa, però esistono solo pochissimi programmi che sfruttano 4 core, e quasi nessuno per i 6 core...io sti processori a 46 core li userei solo x i server o x i grossi desktop, mai su un tablet o smartphone :S
Questa corsa ai core è un'arma a doppio taglio. In ambito server, o meglio service oriented, ha molto senso ma per tutto il resto assolutamente no; anzi, è una regressione.
Tanto per cominciare i compilatori ed il software stesso diventerebbero talmente complessi che il margine di errore o di deadlock sarebbe altissimo. Già ad oggi software perfettamente parallelizzati se ne vedono pochi, anche in virtù del fatto che non tutti i task si avvantaggiano/necessitano di tanta parallelizzazione.
Secondo, aumentare così tanto il numero dei core significa ad entrare fortemente nel campo statistico del loro utilizzo.
Se è vero che il sistema operativo può impegnarli tutti, è anche vero che col sistema a basso-medio carico ed applicazioni low-threaded molti di questi verrebbero spenti, con un decadimento delle prestazioni... a meno che Intel non riesca a fare 48 core da 1 - 2 GHz, ma avrebbe senso? NO.
Esistono, in ambito consumer - low/mid-business, task tali da occupare core da 1-2GHz per elevati tempi d'esecuzione da richiedere l'intervento di decine di core? Non mi sembra. Forse codice mal scritto.
Figuriamoci su un tablet! (scopriranno nel frattempo come realizzare un reattore ark miniaturizzato o una pila atomica Asimoviana? Per quanto possano consumare poco, tenere 40 core alimentati solo per applicazioni in background è comunque un dispendio.)
Torniamo in loop sul fatto che una così elevata potenza computazionale parallelizzata avvantaggerebbe solo ambito server. Non si può dire neanche scientifici perché lì si usa il GPGPU dove il numero di core e la potenza a disposizione è di gran lunga più elevata.
Tutto questo imho. Non lavoro a Intel ma un saggio dice "il troppo stroppia"
marchigiano
01-11-2012, 12:27
e se fossero core eteronegei? cioè uno accelera i video, uno accelera java, uno accelera le dx, uno winrar, ecc...
Fatto resta che sono parecchi anni che Intel lavora sul campo dei multicore ed è per questo che continuiamo a vedere gli Atom: espressione user di processori poco performanti (da un lato) ma efficienti; non pensiate di avere subito un Xeon da 56 core sul tablet ma quella è la strada...
e se fossero core eteronegei? cioè uno accelera i video, uno accelera java, uno accelera le dx, uno winrar, ecc...
Una cosa del genere ha poco senso ma è comunque gestita dallo scheduler del sistema operativo.
C'è in effetti la possibilità che stiano pensando ad un SoC con Larrabee, in quest'ottica avrebbe senso il comunicato. Il SoC K3V di Huawei ha effettivamente 20 core, 4 cpu e 16 gpu.
angry birds e facebook 2022 a 48 core :asd:
Q
Torniamo in loop sul fatto che una così elevata potenza computazionale parallelizzata avvantaggerebbe solo ambito server. Non si può dire neanche scientifici perché lì si usa il GPGPU dove il numero di core e la potenza a disposizione è di gran lunga più elevata.
Tutto questo imho. Non lavoro a Intel ma un saggio dice "il troppo stroppia"
In realtà la potenza è di gran lunga inferiore, le GPU hanno molti core a "basse" frequenze. Ed infatti van bene in tutte quelle occasioni dove hai molti dati da elaborare con poche istruzioni (es stupido: prendere una matrice e sommare 1 ad ogni elemento)
Cmq il problema è che ci sono programmi dove è proprio impossibile spezzare il codice. E quindi non è possibili parallelizare
emanuele83
01-11-2012, 16:47
GPU e CPU sono totalmente diverse pensare di usare una architettura CPU per fare ic alcoli di una GPU è utopia. la gpu è pura pipeliine a bassa fequenza, parallelismo se vogliamo... la cpu è sequenziale, e veloce con poca pipeline. Ma poi tutta questa potenza a cosa serve? specialmente su un dispositivo mobile, non credo che le future piattaforme sw siano schifosamente ai livelli di flash player, la piaga delle prestazioni dei computer moderni imho. incredibile che il mio firfox ocn 20 schede aperte occupi 1 giga di ram a causa dei processi flash aperti al di sotto solo per mostrare le pubblicità poi!!!!
ripeto: il futuro sarà system in package prima e system on chip dopo. lo hanno gia fatto con cpu ++ gpu, lo faranno anche con CPU + GPU + ram/rom con fine di ridurre i consumi a pari frequenza. certo tutto dipende da dove il processo produttivo ci porterà quando si scenderà sotto i 10 nm
ricordo cme che oltre alla architettura 3d su normale silicio si può passare facilmente a materiali di gate più sofisticati (vedasi amd) e sfruttare ancora entrambi per raggiungere il piu tardi possibile la soglia dei pochi strati atomici di lunghezza di canale e poi cambiare radicalmente la tecnologia (nanotubi grafene computer quantico, chissà) il tutto per mantenere effettiva la legge di moore.
chiedo scusa per la mia scrittura ma sonostato dall'oculista e mi ha messo delle gocce che no mi fanno piu vedere da vicino :)
Theodorakis
01-11-2012, 17:53
Dopo la corsa ai ghz secondo me anche la corsa ai core finirà e non manca neanche molto
Concordo. Basta guardare cosa sta facendo ARM. Cortex A15 dual core ha la stessa capacità di elaborazione del Cortex A9 (Vedere prove del nuovo Exynos o dell?A6 di Apple) . Il futuro A52 dual core, dovrebbe avere la stessa capacità di un quad A15. ARM sta affinando le proprie CPU, perché tanto un Quad Core per i prossimi anni dovrebbe bastare, in ambito mobile.
Incredibile. Il punto per me è: credono davvero che quello che dicono sarà realizzabile? Credono davvero che se quello che dicono sara' realizzabile quello sia la strada giusta? Credono davvero che agli utenti finali interessi una simile notizia ai giorni nostri? Perchè non ne parlano quando avranno le capacità per farlo? Io non ho parole. Se tutto quello che ci riserverà il futuro sarà uno smartphone da 48 core però siamo fritti.
demetriol
01-11-2012, 21:22
GPU e CPU sono totalmente diverse pensare di usare una architettura CPU per fare ic alcoli di una GPU è utopia. la gpu è pura pipeliine a bassa fequenza, parallelismo se vogliamo... la cpu è sequenziale, e veloce con poca pipeline.
Ne sei proprio certo? http://it.wikipedia.org/wiki/CUDA
Tacco1973
01-11-2012, 22:23
Concordo. Basta guardare cosa sta facendo ARM. Cortex A15 dual core ha la stessa capacità di elaborazione del Cortex A9 (Vedere prove del nuovo Exynos o dell?A6 di Apple) . Il futuro A52 dual core, dovrebbe avere la stessa capacità di un quad A15. ARM sta affinando le proprie CPU, perché tanto un Quad Core per i prossimi anni dovrebbe bastare, in ambito mobile.
Sembra infatti che una Azienda sconosciuta a molti (Adapteva) stia cercando di anticipare gli intenti di Intel costruendo il primo processore a 64 cores Arm. Il progetto, che prende il nome di Parallella, e' gia' stato pienamente finanziato su Kickstarter e promette di portare entro breve cpu che raggiungono la potenza teorica di 45Ghz su smartphones e non solo. 90GFLOPS di potenza di calcolo e consumo energetico limitato a 5W.
Non solo, secondo Adapteva sara' possibile portare i processori a 1000cores(1.2TFLOPS di potenza) entro il 2014, il tutto in un unico chip di 18mm.
Ma non vi aspettate che questi possano far parte del mercato Windows. Il progetto e' infatti indirizzato a Linux.
http://www.kickstarter.com/projects/adapteva/parallella-a-supercomputer-for-everyone
rockroll
01-11-2012, 23:06
.. forse escludendo solo quello che considera produttivo perseverare anhe su ricerche fallite.
Alla base di un'intrinseca inutilità di proliferazione di molti core per la grande maggioranza delle applicazioni sta l'impossibilità logica di segmentare in più processi contemporanei sezioni assolutamente sequenziali (set di numerose iztruzioni ognuna delle quali per essere eseguita ha bisogno del risultaoto della precedente istruzione).
Il grado di "parallelizzabilità" dipende esclusivamente dalla tipologia della problematica da risolvere
Sarà benale quel che dico, ma sembra che molti, Intel per prima, se ne dimentichino, riponendo chi sa quale fiducia nella futuribile posibilità di parallelizzare l'imparallelizzabile!
rockroll
01-11-2012, 23:26
Ovviamente mi riferivo ad elaborazioni che ha senso eseguire su un tablet.
E' charo che elaborazioni grafiche o statistiche ad esempio, dove ognuno di moltissimi core si può prendere in carico autonomamente una fettina del problema, le cose cambiano, ma vi sembrano eleborazione che fareste su un dispositivo mobile di rincalzo al Vs computer fisso, dispositivo che, per sua natura, è poco più che un giocattolo tecnologico?
Ho letto commenti molto interessanti, ma, da perfetto profano, mi sembra che non tengano debitamente conto del fatto che la ricerca Intel di cui l'articolo parla è indirizzata ad un orizzonte temporale di 5-10 anni, come dire una o due ere geologiche in ambito informatico e, presumo, anche dello sviluppo software.
Fare degli elaboratori molto potenti non serve a molto se poi sono soggetti a periferiche lente ed a problemi di congestione del Bus come a problemi di architettura del sistema operativo. Un processore a 4 core dovrebbe essere progettato in armonia con il sistema operativo. Una soluzione è l'implementazione di multipli desktop dove ogni desktop aperto lavora in combinazione con un singolo core o con più core. Nel desktop si dovrebbe avere la possibilità di regolare le applicazioni che usano un determinato core, per esempio potrei disabilitare le chiamate da una connessione Ethernet o Wireless per far funzionare il core solo per i calcoli grafici mentre sto facendo una produzione video. In tale caso avrei la possibilità di regolare il core per trasmettere o ricevere informazioni da un disco esterno in via diretta (direct memory access method). Questo eviterebbe attese necessarie da un disco rigido interno già occupato con altri core e dunque con altri desktop per altre operazioni. Un desktop potrebbe trasmettere informazioni anche ad un ulteriore monitor usando i core implementati. Questo eviterebbe che una ferrari debba tirarsi appresso un Tir.
Uno dei gravi problemi che influenzano la velocità di un elaboratore sono le routines dei vari software che continuano ad emettere chiamate di attenzione verso il sistema operativo che deve fornire esito positivo e negativo a tali chiamate. Se non si implementano differenti desktops dove si ha la possibilità di eliminare tali chiamate verso il sistema operativo allora il core va certamente in overload ed è costretto a rispondere a tali chiamate. Queste routines camminano costantemente consumando risorse. Con un eventuale implementazione di extra desktops che controllano le funzioni di core indipendenti si dovrebbe anche avere la possibilità di eliminare tutte le chiamate effettuate da qualsiasi software che non si intende utilizzare. Tutto ciò migliorerebbe nettamente la qualità di un sistema operativo.
Dragon2002
02-11-2012, 15:37
Le previsioni nel 2000 erano molto ottimiste ormai mi sembra che il processo tecnologico delle cpu tranne qualche aggiustamento nell'architettura si sia praticamente fermato e se va avanti non porta guadagni a livello di prestazioni evidenti ma solo di marketing,il vero passaggio è stato da 1 a 2 core e da 2 a 3ghz per quanto riguarda la frequenza,il passaggio da 3 a 4gh e da 2 a 4 core non ha portato questi grandi aumenti prestazionali se non in alcuni casi sporadici come nell'editing video e altri programmi professionali. Dai 6 core in su è praticamente inutile,un po per il software poco ottimizzato,un po perché serve a poco,la stessa cosa è successa con gli smartphone almeno quelli android passare da 1 a 2 core e da 512mb a 1gb di ram ha portato a guadagni prestazionali evidenti,visibili a vista d'occhio il passaggio successivo si vede invece solo aprendo 10 applicazioni contemporaneamente o in alcuni giochi,nell'uso normale non è affatto cosi evidente.
Dico la mia perché l'argomento "sistemi multicore" è l'oggetto della mia tesi di laurea magistrale e (forse) di un dottorato; spero di poter aggiungere qualche dato interessante perché leggo alcune cose inesatte o ingenue, e l'argomento mi affascina troppo per non scrivere! :D
Il paragone fra la "corsa al gigahertz" e quella al core è improprio; in realtà le spinte sono opposte. Nel periodo della corsa al gigahertz l'obiettivo fornire un processore più potente sfruttando l'avanzamento tecnologico (riduzione delle dimensioni dei transistor) e architetturale (pipeline più lunghe, speculazione, esecuzione out-of-order), senza richiedere alcuno sforzo dal punto di vista dell'architettura software. Lo stesso programma doveva girare più velocemente su un processore più nuovo senza alcuna ristrutturazione: semplicemente il processore eseguiva le stesse operazioni in modo più efficiente. Quello che frenò la corsa è il fatto che, poiché la potenza consumata dipende linearmente dalla frequenza, aumentare la frequenza di clock significa aumentare i consumi energici e di conseguenza anche il calore da dissipare, tra l'altro dovendo fare compromessi enormi sull'architettura per sostenere simili frequenze. Qualcuno ha detto Pentium 4?
La "corsa ai core" parte dalla prospettiva opposta. Il parallelismo a livello di dato (quello delle GPU per intenderci) o a livello di thread (come quello degli attuali core di una CPU) offre accelerazioni potenziali molto superiori a quella consentita dal semplice scaling della frequenza; la differenza sostanziale è che richiede uno sforzo notevole in termini di paradigmi software, che è ancora lontano in particolare per sistemi come questo SoC di Intel. D'altro canto, l'approccio multicore è molto più gestibile dal punto di vista energetico poiché abbassare la frequenza o spegnere un intero core inutilizzato in un sistema multicore è molto, molto più semplice che effettuare la stessa operazione su una unità funzionale non utilizzata all'interno di una pipeline di un processore single-core.
Non dovete pensare a questi sistemi come alle CPU attuali, solo con più core. Oggi sulla CPU si fanno girare pochi thread "coarse-grain", vale a dire parti di programma piuttosto complesse (il classico esempio è un programma con due thread, uno per l'interfaccia e l'altro per il motore sottostante). Questi sistemi invece sono pensati per far girare molti più thread molto più piccoli, sfruttando il parallelismo in modo molto più massiccio; di solito i core in sé sono parecchio più semplici di quelli general-purpose stile i7. Per ora è impensabile vederli come sistema principale ad esempio in un computer o uno smartphone: non esistono sistemi operativi "evoluti" general-purpose pensati per lavorare su piattaforme sfruttandole adeguatamente. Ma in ambito embedded, dove non c'è bisogno di sistemi operativi di questo genere, sono un futuro molto più vicino, perché applicazioni come la computer vision o il multimedia richiederanno presto un livello di prestazioni raggiungibile solo così.
Per cercare di rispondere a critiche sicuramente valide, come il fatto che esistono sezioni di codice non parallelizzabile e che quindi limitano l'accelerazione: è sicuramente vero e di fatto la sezione sequenziale di un programma ne limita l'accelerazione ottenibile mediante parallelizzazione. Però per quanto riguarda l'ambito embedded, il problema è "aggirabile" poiché un'architettura è pensata per un certo tipo di algoritmi e viceversa - se l'algoritmo non è per nulla parallelizzabile, probabilmente è stato pensato male dall'inizio (oppure si vuole usare un'architettura inadatta, come 48 core in un microcontrollore...).
Per quanto riguarda il computing general purpose la faccenda è più complessa, ma in sostanza si può ridurre al fatto che c'è molto lavoro da fare in termini di modelli di programmazione e all'interfaccia hardware/software: il primo punto consiste nel fatto che si devono fornire modelli semplici e vicini all'approccio sequenziale "standard" ai programmatori, per rendere la programmazione parallela meno ostica. Il secondo punto è che bisogna in parte ripensare i sistemi operativi guardando queste architetture in cui operazioni come il context switch (il passaggio da un thread/processo ad un altro) avvengono ogni 10/100 cicli anziché ogni 1000 o 10000, e in cui una parte sostanziale del lavoro è scegliere a quale processore assegnare un determinato thread e quali processori spegnere per risparmiare energia quando non sono utilizzati.
Insomma, c'è un sacco di lavoro da fare e ancora non ci siamo (né sull'hardware, né soprattutto sul software) ma questa è l'unica strada percorribile oggi per evolvere l'architettura dei calcolatori.
PS: per gli increduli sul fatto che chip a 48 core siano possibili, un esempio già esistente è Intel SCC (http://www.intel.com/content/www/us/en/research/intel-labs-single-chip-cloud-computer.html). Personalmente sto lavorando tramite l'università ad una piattaforma molto interessante di STMicroelectronics, Platform 2012, anche di questa c'è già un chip con 48 core. Purtroppo non ci sono informazioni liberamente disponibili, se qualcuno è interessato su IEEEXplore c'è un articolo (http://ieeexplore.ieee.org/xpl/login.jsp?tp=&arnumber=6176639&url=http%3A%2F%2Fieeexplore.ieee.org%2Fxpls%2Fabs_all.jsp%3Farnumber%3D6176639), non gratuito ahimè.
Scritto sto papiro, chi avrà il coraggio di leggerlo? :blah:
coschizza
03-11-2012, 08:22
Scritto sto papiro, chi avrà il coraggio di leggerlo? :blah:
letto ;)
condivido tutto ma sono ottimista perche il lavoro poco per volta si sta facendo certo che il mercato consumer domina quindi fino a quando i vantaggi non saranno evidenti per le masse gli investimenti piu grossi tarderanno a vederri.
Pero ti faccio un esempio di come quando serve i produttori si mettono d'accordo, l'intel con il prossimo haswell ha cambiato di molto la gestione dei consumi per creare il suo idle attivo cioè la cpu che consuma un nulla ma di fatto puo tornare attiva in una frazione di tempo, per sfruttare questa cosa ovviamente serve che anche il sistema operativo che sia in grado di usarlo e in windows 8 è stato fatto proprio questo, mentre prima quando il pc generava una richiesta di interrupt il SO era costretto a rispondere in questo modo la cpu non poteva stare in iddle e i consumi ridotti si avevano per brevi periodi di tempo. Ora il SO prende le richieste di interrupt e le mette assieme per far in modo che la cpu torni attiva per eseguire piu operazioni e possa ritornare di nuovo in idle per un periodo di tempo piu lungo sfruttando quindi le novità della cpu intel che altrimenti sarebbero quasi sprecate.
dai che un passo alla volta qualcosa di buono viene fatto;)
La notizia parla esplicitamente di dispositivi mobili, secondo me Intel vuole produrre o prepararsi a uno scenario in cui il dispositivo portatile sarà il centro della "vita" e dovrà occuparsi di molte operazioni eterogenee contemporaneamente, esempio: gestire flusso video e accelerazione 3D per la realtà aumentata, rilevare dati biomedici, scambiare dati con Internet, magari una videotelefonata e mostrare la grafica del navigatore e altre cose tutto contemporaneamente. Una cosa simile a quello che ha scritto Marchigiano ma senza specializzazione dei core ma comunque con un solo SOC che faccia tutto. Le considerazoni sulla parallelizzazione degli algoritmi sono importanti ma meno del numero di operazioni e potranno essere sfruttate anche senza usare tutti i core per ogni algoritmo.
Non sto dicendo che succederà ma che Intel vuole farlo o prepararsi a questo.
kakaroth1977
05-11-2012, 01:48
Visto che si parla di "fra 10 anni" provate a immaginare i 48 core in questo modo :
Tecnologia Siliciene frequenze fino a 5ghz (e siamo ancora sul conservativo si possono spingere ben oltre)
Processo produttivo inf 14 micron
Cpu 4/8 core fisici 8/16 logici + Gpu (32 Stream Processors 8 Raster Operations) in un unico package .
Dove la gpu collabora con la cpu nei calcoli a lei più congeniali .
Ecco i 48 core sbandierati applicando nuove tecnologie di materiali e processi produttivi a idee riciclate.
In un soc di 2-3 cmq la potenza di una Nvidia GT9700m SSSOC ed un I7 a 5ghz con meno di x watt .
E ci gira anche Crysis in FullHD
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.