Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70 porta il concetto di smartphone ultrasottile su un terreno più concreto e accessibile: abbina uno spessore sotto i 6 mm a una batteria di capacità relativamente elevata, un display pOLED da 6,7 pollici e un comparto fotografico triplo da 50 MP. Non punta ai record di potenza, ma si configura come alternativa più pragmatica rispetto ai modelli sottili più costosi di Samsung e Apple
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Sono molte le novità che ASUS ha scelto di presentare al CES 2026 di Las Vegas, partendo da una gamma di soluzioni NUC con varie opzioni di processore passando sino agli schermi gaming con tecnologia OLED. Il tutto senza dimenticare le periferiche di input della gamma ROG e le soluzioni legate alla connettività domestica
Le novità ASUS per il 2026 nel settore dei PC desktop
Le novità ASUS per il 2026 nel settore dei PC desktop
Molte le novità anticipate da ASUS per il 2026 al CES di Las Vegas: da schede madri per processori AMD Ryzen top di gamma a chassis e ventole, passando per i kit di raffreddamento all in one integrati sino a una nuova scheda video GeForce RTX 5090. In sottofondo il tema dell'intelligenza artificiale con una workstation molto potente per installazioni non in datacenter
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 16-12-2013, 10:49   #21
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da Vash_85 Guarda i messaggi
Qualche settimana fa ho letto una news interessante riguardo i bay trail versione server

http://www.bitsandchips.it/hardware/...do-fuori-intel


e in uno dei commenti si può leggere...

http://anandtech.com/show/7265/intel...icroserver-soc

De Gelas di Anandtech taglia le gambe ai nuovi Atom Silvermont. I Centerton vanno la metà dei SoC Calxeda nei calcoli Integer e consumano il doppio. Morale della favola, hanno 1/4 dell'efficienza


Vedremo..
Leggi il secondo articolo che hai linkato :

Quote:
ARM, quindi, potrebbe diventare effettivamente padrona dei server a basso costo lasciando, almeno momentaneamente, Intel padrona di quelli ad alte prestazioni.
I Centerton sono basati sulla generazione vecchia, ancora 40-32nm con 2 cores ed HT e senza architettura OoOE ( "out of order" ).
Inoltre a patto che quei dati siano veri, misurano solo il lato integer e non il float ?

Ultima modifica di PaulGuru : 16-12-2013 alle 10:56.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 16-12-2013, 10:58   #22
Dimonios
Senior Member
 
Iscritto dal: Feb 2011
Messaggi: 347
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Leggendo un po' in giro ne risulta che le dimensioni di una cella SRAM prodotta con i 28nm di TSMC è di 0.127um^2, mentre quella realizzata con il PP a 22nm di Intel è di 0.08um^2 (contro una teorica a 22nm di 0.078). E questo testimonia la capacità di Intel di mettere una quantità di transistor decisamente maggiore nella stessa area rispetto a tutti gli altri.
Dal forum di Anand:

Quote:
Also, as IDC mentioned above, this is the theoretical best. Intel's 22nm node has a maximum 6T SRAM density of 0.092 µm²/bit, but their largest 22nm SRAM cells have a density of 0.130 µm²/bit, which coincidentally is the exact area of TSMC's maximum SRAM cell density.
Dimonios è offline   Rispondi citando il messaggio o parte di esso
Old 16-12-2013, 10:59   #23
Vash_85
Senior Member
 
L'Avatar di Vash_85
 
Iscritto dal: Jan 2002
Messaggi: 10337
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
cut
Non riesco a capire se ci sei o ci fai....

Un altro da aggiungere alla ignore list...

Oramai per i moderatori bannare i cloni non è più una priorità....
Vash_85 è offline   Rispondi citando il messaggio o parte di esso
Old 16-12-2013, 11:19   #24
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da Vash_85 Guarda i messaggi
Non riesco a capire se ci sei o ci fai....

Un altro da aggiungere alla ignore list...

Oramai per i moderatori bannare i cloni non è più una priorità....
Clone di chi ? Ma non sapete dire altre frasi ? ogni volta che qualcuno difende Intel gli deve essere dato del fanboy, del clone o del troll ?
Se vuoi sostenere una discussione è una cosa, se non ti va di sforzarti troppo allora lascia perdere proprio la discussione.

Ti ho solo fatto notare che i Centerton non sono affatto Bay Trail e senza benchmark veri ogni cosa è in dubbio e la parola di qualche distributore o portale specie bitsandchips lasciano il tempo che trovano.

Anzi fino ad ora c'è solo questo visto che prima si parlava di servizi web e cloud :



L'ECX2000 in questione inoltre ha un TDP dichiarato di 16W, mentre l'Atom C2530 20W, ti sembra il doppio ?

Ultima modifica di PaulGuru : 16-12-2013 alle 11:27.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 16-12-2013, 14:03   #25
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Clone di chi ? Ma non sapete dire altre frasi ? ogni volta che qualcuno difende Intel gli deve essere dato del fanboy, del clone o del troll ?
Se vuoi sostenere una discussione è una cosa, se non ti va di sforzarti troppo allora lascia perdere proprio la discussione.

Ti ho solo fatto notare che i Centerton non sono affatto Bay Trail e senza benchmark veri ogni cosa è in dubbio e la parola di qualche distributore o portale specie bitsandchips lasciano il tempo che trovano.

Anzi fino ad ora c'è solo questo visto che prima si parlava di servizi web e cloud :



L'ECX2000 in questione inoltre ha un TDP dichiarato di 16W, mentre l'Atom C2530 20W, ti sembra il doppio ?
Allora facciamo un po' di ordine.
In primo luogo, come è da prassi Intel, il confronto lo stai facendo tra l'ultimo processore a 22nm con uno del 2010 a 40nm (gli A9 di Caldexa). Già qui la dice lunga sulla voglia di Intel di confrontarsi, non dico con gli ultimi A53/A57 che non si sono ancora affacciati sul mercato, ma almeno un A15 a 28nm.
Secondo i 20W del processore Intel è un valore inutile da considerare, dato che nei 5W del SoC Caldexa è contenuto TUTTO il necessario per far funzionare il server (network escluso), mentre l'Atom richiede ancora un chipset esterno, non fatto a 22nm e che consuma pure lui. Quelli non li consideriamo?

Infine, inutile stare qui a farsi le menate su tabelle e grafici palesemente falsificati nei confronti (se lo confrontava con un A8 monocore la barretta blu sarebbe andata alle stelle! Che informazioni utile sarebbe stata, vero? Forse no, però sicuramente a livello commerciale che bella figura!).
Quello che conta è ciò che il mercato sta chiedendo. Il mercato di server a basso IPC e bassissimo consumo è in crescita. Però non si guarda a Intel. Caldexa e molti altri hanno già presentato delle soluzioni acerbe ma che mostrano le enormi potenzialità che si possono avere con le nuove architetture ARM a 64 bit.
Infatti, guardacaso, tutti i produttori di SoC ARM stanno facendo proclami di SoC a 64 bit (e chi crede siano destinati agi smartphone crede male) e la stessa AMD ha intenzione di occupare parte di questo nuovo mercat con degli Opteron basati su ARM.

Intel sono 3 generazioni che dice che i suoi Atom sono migliori dei processori ARM, ma sono 3 generazioni che non ne vende uno nel mondo mobile, e difatti appena presentato un Atom nuovo di pacca si affretta a dire che i prossimi (sempre a nanometria inferiore ovviamente) sarà ancora meglio e sarà imbattibile dal resto del mondo, giusto per dimostrare ai potenziali clienti che Intel sta migliorando e che non si deve abbandonarla. Ma purtroppo, a meno che Intel non paghi e sovvenzioni dei progetti pilota, NESSUN produttore di dispositivi mobile prende in considerazione l'uso degli Atom. Smartphone e tablet con ARM venduti quest'anno circa 1 miliardo, Atom venduti NP.

ARM non ha bisogno di fare alcun proclamo su un bel niente, dato che per lei parlano le cifre da sole: consumi/prestazioni è imbattibile, non c'è Atom a 22 nm che tenga. Dal punto di vista costi è altrettanto imbattibile, dato che un SoC ARM che integra tutto è grande in numero di transistori quanto 2 core di un Atom.
Per ora Intel campa delle alte prestazioni, dove i consumi sono il problema minore e del fatto che può integrare un numero di transistor maggiore nello stesso spazio. Oltre al fatto che ha un processo produttivo FinFET che garantisce di suo minori consumi (ma ancora non basta).

In ultimo, io non ho mai detto che i 28nm di TSMC sono uguali ai 22 di Intel. Anzi. Chi sostiene questo semplicemente cerca qualche scusante per trovare del torbido là dove non conta nulla.
Le carte che io ho trovato riguardo alle dimensioni dei transistor di Intel li pongono ad essere a 22nm per davvero. Anche se poco conta di per sè sapere quanto ce l'ha lungo e grosso Intel. Le dimensioni e i consumi dei suoi processori parlano da sole. D'altronde è questo che conta: in primis quanto si consuma per svolgere un determinato lavoro e in secondo luogo, quanto costa il tutto (densità = area = costo silicio).
Il verdetto dice che in confronto al resto del mercato il PP di Intel è più avanti. E' a 200nm? Usa il dentifricio come substrato? Poco importa: fa processori di ultima generazione in poco più di 200mm^2 (vedere le dimensioni degli FX di AMD, giusto per confronto) e consumano molto meno della concorrenza. Questo nel mercato IPC.
In quello Low IPC dove si scontra con una architettura completamente diversa e dove i consumi sono fondamentali, ecco che questo vantaggio, che è l'unico che le permette di presentare qualcosa che si possa cercare di mettere a confronto di ARM che sta su un altro pianeta, non basta più.
Se i 28nm di TSMC fossero davvero così validi, AMD a quest'ora avrebbe già un suo Harahiri/Bobcat/SuperGulp (o come divaolo chiama ultimamente le sue architetture a basso consumo) prodotto da TSMC.

/edit: dimenticavo l'ECX1000 (non ECX200 che è appunto il SoC A15 che ha il doppio dell'efficienza e che Intel non ha usato, guarda caso, per il confronto) ha un TDP di 5 W ma considerando anche 4GB di RAM.
Ne deriva che 4 moduli Caldexa da 20W e 16GB di RAM totali consumano molto meno della soluzione Atom andando uguale (moltiplica x4 i numero della barretta verde e voilà). E stiamo confrontando 40nm vs 22nm e una architettura ARM non pensata alla performance 4 anni più vecchia.
Come vedi a fare le slide con i numeri fuffa che fanno sembrare le cose migliori di quel che sono veramente è facile. Intel è maestra in questa. Dopo che ci sei cascato una volta però capisci come funziona e stai più attento.

Ultima modifica di CrapaDiLegno : 16-12-2013 alle 15:52.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 16-12-2013, 18:01   #26
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6326
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Con l'X86 i margini di cresciti in termini di IPC puro erano nettamente superiori, se con ARM ci fosse stata la possibilità di tirare fuori qualcosa di decente sarebbe già stato annunciato o uscito.
Mi sa che ti è nuovamente sfuggita la parte riguardo i vincoli sui consumi di corrente e calore dissipato e riguardo il discorso della retrocompatibilità.

Ad esempio, se dai un occhiata ai core Cortex A7 ed A15, vedi la notevole differenza tra due design che rispettando i vincoli di consumo e calore dissipato, uno è progettato per dare il massimo delle prestazioni (sempre entro i vincoli di consumo e costo produttivo) mentre l'altro è progettato per consumare poco ed usare un area su chip inferiore (il core A7 è circa 1/3 di un A15), i core per applicazioni embedded (i Cortex M) sono pure più spartani.

Ripeto, il motivo per cui non c'è ancora un ARM "sviluppato per la potenza pura" è che al momento non ha senso cercare lo scontro diretto in potenza di calcolo con gli x86 (visto che il grosso del mercato potenziale ha ancora il requisito della retrocompatibilità con software x86); mentre nel settore dei server di fascia alta (oltre ai requisiti di prestazioni) il mercato è più ristretto e serve tutto un ecosistema hardware dedicato di supporto ed è molto più difficile cambiare cpu se non c'è qualcuno che ti appoggia seriamente.

Infatti Intel aveva provato più volte a "sfondare" nei server di fascia alta e ci è riuscita solo dopo aver stretto accordi con pezzi grossi di quella nicchia (in primo luogo HP) riguardo la commercializzazione dell'Itanium, nonostante l'Itanium non sia stato un gran successo in tale ambito ai sopravissuti a quella debacle non restava che continuare a proporre Itanium oppure x86 per la gioia di IBM e Sun (ora Oracle) che avevano continuato a proporre le loro cpu POWER ed UltraSPARC e si ritrovarono a beccari quote di mercato degli ex-concorrenti.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 16-12-2013, 23:25   #27
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Mi sa che ti è nuovamente sfuggita la parte riguardo i vincoli sui consumi di corrente e calore dissipato e riguardo il discorso della retrocompatibilità.
Non parlo dei SoC attualmente nel mercato.

Se l'unico problema fosse il limite di consumo, l'avrebbero innalzato e sfornato un ARM pompato ma questo in molti decenni in cui esiste tale architettura non si è mai verificato.

Anche per i server continuano a proporre soluzioni dove la potenza arriva da configurazione strettamente basate sul numero di chip, quindi questo vincolo come lo chiami tu mi pare sia l'unica cosa che faccia stare in piedi questo ARM.
Duellare con Intel e AMD nella potenza pura ha senso invece, vedi il resto dei servers e supercomputers.

Perchè le console non si sono fatte fare un SoC di grosse dimensioni se la cosa fosse stata possibile ?
Perchè non tirano fuori un ARM da 125W di TDP visto che secondo alcuni dovrebbe dare la paga agli x86 basandosi su quello che faceva contro i primi pentium ?
A me sta cosa del "non sono fatte per" mi suona come una banale scusa.

A7 e A15 sono anche diversi ma come fascia rimangono sempre relegati molto in basso come IPC, un Bay Trail li batte entrambi, figurati un Celeron, possono anche crescere velocemente ma siamo ancora in alto mare, anzi non sarebbero nemmeno partiti.

Ultima modifica di PaulGuru : 16-12-2013 alle 23:33.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 17-12-2013, 00:32   #28
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6326
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Non parlo dei SoC attualmente nel mercato.

Se l'unico problema fosse il limite di consumo, l'avrebbero innalzato e sfornato un ARM pompato ma questo in molti decenni in cui esiste tale architettura non si è mai verificato.

Anche per i server continuano a proporre soluzioni dove la potenza arriva da configurazione strettamente basate sul numero di chip, quindi questo vincolo come lo chiami tu mi pare sia l'unica cosa che faccia stare in piedi questo ARM.
Duellare con Intel e AMD nella potenza pura ha senso invece, vedi il resto dei servers e supercomputers.

Perchè le console non si sono fatte fare un SoC di grosse dimensioni se la cosa fosse stata possibile ?
Perchè non tirano fuori un ARM da 125W di TDP visto che secondo alcuni dovrebbe dare la paga agli x86 basandosi su quello che faceva contro i primi pentium ?
A me sta cosa del "non sono fatte per" mi suona come una banale scusa.

A7 e A15 sono anche diversi ma come fascia rimangono sempre relegati molto in basso come IPC, un Bay Trail li batte entrambi, figurati un Celeron, possono anche crescere velocemente ma siamo ancora in alto mare, anzi non sarebbero nemmeno partiti.
Primo: appena uscito sul mercato, negli anni '80 gli ARM avevano preso sonoramente a calci in cuo gli x86 in termini di prestazioni, solo che comunque non sfondarono perchè la retrocompatibilità con il "software per ufficio ed aziende" compilato per x86 era già diventata il vero fattore trainante.

A causa di questo, quella che divenne ARM Ltd decise di concentrarsi nel settore embedded dove un architettura snella ed eficiente aveva il suo perchè
(e sopratutto la retrocompatibilità era un fattore meno decisivo).

Insomma tutti hanno visto cosa succede a cercare di contrastare con le prestazioni una cpu il cui vero elemento trainante è la retrocompatibilità e nessuno vuole ripetere l'errore se non quando questa non sarà più troppo rilevante.

Secondo: al momento non c'è sufficiente mercato per cpu ARM ad alte prestazioni con un TDP da 125Watt, questo perchè la cpu da sola non basta, servono anche chip di supporto ad alte prestazioni ecc. ecc.
altrimenti la cpu viene "strozzata" in termini di prestazioni da innumerevoli colli di bottiglia.
Insomma, i costi iniziali sarebbero troppo elevati ed il mercato è saldamente in mano ad altre architetture che offrono già il "pacchetto completo.

Al momento solo AMD o Google potrebbero farlo.

AMD se produrrà degli "Opteron basati su ARM" (compatibili con i chip di supporto già sviluppati per gli Opteron x86-64) ma non sembra ci sia una gran fretta, probabilmente i primi ARM AMD "per server" verranno proposti per server a basso consumo.

Google perchè acquista e gestisce un tal numero di server su rack ecc. ecc. che ha i numeri per fare qualcosa di customizzato al massimo per le sue esigenze inclusa la cpu e scegliendo ARM non finirebbe con il dipendere da un singolo fornitore.

Ma nessuno dei due ha fretta in proposito.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 17-12-2013, 13:46   #29
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
A7 e A15 sono anche diversi ma come fascia rimangono sempre relegati molto in basso come IPC, un Bay Trail li batte entrambi, figurati un Celeron, possono anche crescere velocemente ma siamo ancora in alto mare, anzi non sarebbero nemmeno partiti.
Cosa non hai capito che le prestazioni dei processsori Intel rispetto a quelli ARM hanno più prestazioni ma consumano di più e sono più gradi in termini di transistor = maggior costo?
Gli ARM stanno uscendo piano piano dalla tana dell'embedded, e piano piano cresceranno in dimensioni e in consumi man mano che le necessità di presenteranno.
Confrontare un processore come un Celeron da 200mm^2 che richiede un bridge esterno con un SoC ARM da 80mm^2 che contine TUTTO il necessario per funzionare dimostra che ancora non hai capito la differenza di uso (e quindi di necessità) che i due processori soddisfano.

Se fai una alnalisi completa del mercato delle CPU che non si fermi a quello dei PC desktop vedrai che esistono una marea di architetture nel mondo embedded e qualcuna nel mondo server. Nel mercato desktop ne è rimasta una sola e non per meriti particolari se non per la questione retro compatibilità. Là dove non serve Windows gli x86 sono dimenticati. Comprendi questo e comprendi anche il perché non c'è ANCORA una CPU ARM da 100+W.

Quando il mercato SW maturerà (visto che è 30 anni che è fermo e immobilizzato dal duopolio Witel) allora vedremo il fiorire di ARM e probabilmente anche di altre architetture (MIPS non è da meno di ARM in quanto a prestazioni/W). Per ora accontentiamoci di vedere ARM mangaire come le formiche le basi su cui si fonda il dominio di Intel: grandi vendite = grandi capitali per mantenere il vantaggio sul PP. Se le vendite non vanno come si spera il mantenimento del PP non sarà più possible e il ciclo inverso a quello che ha portato Intel a dominare si invertirà.
A parità di PP ARM si mangia x86 a colazione e ciò significa che questi ultimi troveranno sempre meno spazio partendo dal basso, là dove i consumi contano, per arrivare col tempo anche dove i consumi contano meno.

Non serve fare la rivoluzione anti Intel oggi col rischio di venire soppressi come è stato fatto con i precedenti concorrenti. Basta aprire una breccia e la diga cadrà da sola. E la brecccia è quasi aperta. Aspettiamo le CPU ARM a 64 bit per i server. E magari anche il progetto Denver di nvidia.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 17-12-2013, 14:11   #30
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Le differenze le ho capite, me le avete ripetute alla nausea così come la storiella che negli anni 80 ARM batteva gli x86 ( appunto anni 80, ora hanno valenza 0 ) quello che chiedo è perchè adesso che sono in piena ascesa ed hanno un mercato sicuro non si decidono se è veramente possibile come dite a competere con i prodotti ad alto IPC.

L'ARM avrà anche un terzo dei transistors rispetto al Celeron ma appunto non è monolitico e deve appoggiarsi ad altre unità per svolgere certi calcoli e poi quello che mi chiedo è se è veramente possibile appesantire la complessità della loro architettura al fine di un maggiore IPC ( per maggiore intendo qualcosa tipo almeno un 10x per cores ) o se è destinata a rimanere tale.

Perchè se vogliamo metterla così si potrebbe spingere sul calcolo eterogeneo anche sugli x86 ed eliminare i transistors delle unità float ed avere un notevole risparmio anche lì. Per quanto riguarda il chipset, non credo ci voglia molto ad integrarlo, Intel in gran parte lo ha già fatto su LGA115x, il resto lo tengono separato oramai per pura strategia di mercato.

Ultima modifica di PaulGuru : 17-12-2013 alle 14:16.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 17-12-2013, 17:57   #31
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Le differenze le ho capite, me le avete ripetute alla nausea così come la storiella che negli anni 80 ARM batteva gli x86 ( appunto anni 80, ora hanno valenza 0 ) quello che chiedo è perchè adesso che sono in piena ascesa ed hanno un mercato sicuro non si decidono se è veramente possibile come dite a competere con i prodotti ad alto IPC.
Sembra che tu non abbia capito: mercato high IPC = desktop (dominio x86 per retrocompatibilità... pensa solo a un PC senza Windows che mercato può avere) o server, dove sono necessari altri componenti HW e SW che per ora per ARM non esistono.

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
L'ARM avrà anche un terzo dei transistors rispetto al Celeron ma appunto non è monolitico e deve appoggiarsi ad altre unità per svolgere certi calcoli e poi quello che mi chiedo è se è veramente possibile appesantire la complessità della loro architettura al fine di un maggiore IPC ( per maggiore intendo qualcosa tipo almeno un 10x per cores ) o se è destinata a rimanere tale.
Tale cosa vuol dire? Fare una CPU da 100W richiede uno sforzo di ingegneria mica da ridere e i costi di produzione si alzano a razzo. Per ammortizzare i costi devi venderne a camionate o a prezzi altissimi. Non mi sembra che un qualsiasi produttore di chip ARM (o non x86) abbia questa possibilità o potenzialità al momento.
Però pian piano ci si arriverà. Si parte dai server a basso consumo usando le caratteristiche proprie dell'architettura di oggi e man mano cresceranno.
nvidia ci proverà nel mercato HPC con il progetto Denver che a dispetto dell'uso di core ARM che non dovrebbero avere grandi capacità di calcolo ma che comunuqe consumao poco, affiancherà una GPU di tutto rispetto per effettuare i calcoli scientifici con prestazioni ed efficienza che nessun x86 può raggiungere.
Questo è il calcolo eterogeneo "ad-hoc" che è possibile fare con una architettura modulare. Con gli x86 non si può a meno che Inel non voglia e naturalemente non ha alcuna intenzione di fare in modo che delle unità fatte da altri prendano piede al posto della sua architettura monolitica.

Ultima modifica di CrapaDiLegno : 17-12-2013 alle 18:06.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 17-12-2013, 22:58   #32
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Sembra che tu non abbia capito: mercato high IPC = desktop (dominio x86 per retrocompatibilità... pensa solo a un PC senza Windows che mercato può avere) o server, dove sono necessari altri componenti HW e SW che per ora per ARM non esistono.
Mercato PC senza Windows ? SteamOS ti dice qualcosa ? Windows = Games.
Sui server quali componenti non avrebbe scusa ? Se è per questo per ora non esistono ARM ad alte performance quindi è logico che non esistano nemmeno piattaforme che lo supportino.

Quote:
Tale cosa vuol dire? Fare una CPU da 100W richiede uno sforzo di ingegneria mica da ridere e i costi di produzione si alzano a razzo. Per ammortizzare i costi devi venderne a camionate o a prezzi altissimi. Non mi sembra che un qualsiasi produttore di chip ARM (o non x86) abbia questa possibilità o potenzialità al momento.
Però pian piano ci si arriverà. Si parte dai server a basso consumo usando le caratteristiche proprie dell'architettura di oggi e man mano cresceranno.
nvidia ci proverà nel mercato HPC con il progetto Denver che a dispetto dell'uso di core ARM che non dovrebbero avere grandi capacità di calcolo ma che comunuqe consumao poco, affiancherà una GPU di tutto rispetto per effettuare i calcoli scientifici con prestazioni ed efficienza che nessun x86 può raggiungere.
Questo è il calcolo eterogeneo "ad-hoc" che è possibile fare con una architettura modulare. Con gli x86 non si può a meno che Inel non voglia e naturalemente non ha alcuna intenzione di fare in modo che delle unità fatte da altri prendano piede al posto della sua architettura monolitica.
ARM è un prodotto aperto accessibile a molti distributori, vuoi dirmi che a partire da Google, Samsung ( il più grande colosso dell'elettronica ) ad Apple, ad AMD e ad Nvidia nessuno ha i fondi ? Soprattutto Nvidia che sembrava già interessata dopo i proclami di Denver ?

Comunque sia teoricamente cosa servono i distributori se il prodotto è sempre quello ? Possono customizzarlo ma fino ad un certo punto, è proprio la Cortex che deve sfornare una nuova linea di ARM.

Nvidia Denver era stato annunciato come un possibile ARM ad alte performance per desktop ma dalle ultime news questo è cambiato fino a diventare nient'altro che la successiva gen di Tegra ( o quella subito dopo, adesso non ricordo bene ) con la novità più grande rappresentata dall'architettura per la GPU, quindi nulla di chè. Magari ci approderà comunque sui desktop così come lo ha fatto Bay Trail ora anche sottoforma di Celeron ma nulla di più.

Per il calcolo eterogeneo su x86 potrà non essere perfetto quanto quello con ARM ( forse ) ma AMD per esempio ha tirato fuori Huma e HSA, Nvidia ha reso disponibile l'unificazione tramite software e Intel potrebbe fare lo stesso più avanti.
Aldilà dell'efficienza assoluta se decidessero un approccio simile andrebbero a tagliare tutta la parte relativa al calcolo in virgola mobile, assottigliando la differenza di transistors con ARM, lo scarto che poi un x86 può perdere da questo punto di vista può andare in secondo piano in caso di IPC generale superiore.
Intel non ha bisogno di fare un architettura modulare, ha il suo reparto GPU.

Quote:
nvidia ci proverà nel mercato HPC con il progetto Denver che a dispetto dell'uso di core ARM che non dovrebbero avere grandi capacità di calcolo ma che comunuqe consumao poco,
Scusa eh .... ma se non vanno siamo al punto daccapo, la prestazione è indispensabile, a me sinceramente che consuma poco non me ne può fregare de meno, di sicuro che mi sparo una conversione video pesante o faccio un rendering 3D o avvio semplicemente un videogioco di quelli a tripla AAA ( non i giochi del cellulare ) di un procio che consuma poco non me ne faccio nulla.

Ti faccio notare che in altre sezioni c'è gente che sta sbavando su prodotti come una certa AMD R9 290X che succhia 300W a scheda singola, giusto per farti notare quanto interesse c'è da questo punto di vista.

Nel GPU computing Nvidia con Tesla con un chippone da 7 miliardi di transistors sta vendendo e Intel con Xeon Phi che dal punto di vista del consumo non mi sembra vi siano tante accortezze.

Ultima modifica di PaulGuru : 17-12-2013 alle 23:18.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 18-12-2013, 02:40   #33
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6326
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Mercato PC senza Windows ? SteamOS ti dice qualcosa ? Windows = Games.
Secondo te un azienda investe risorse immani su un chip "da server" per produrre un dispositivo su cui far girare solo SteamOS ?
Considera che TUTTE le console uscite sino ad ora sul mercato sono basate su cpu che il produttore aveva "già pronte", ovvero "customizzate" ma non progettate da zero.
Persino il Cell di PS3 con le sue SPU deriva da precedenti progetti di ricerca di IBM ed anche li le cpu "generiche" erano dei core PowerPC derivati da design per il settore embedded.

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Sui server quali componenti non avrebbe scusa ? Se è per questo per ora non esistono ARM ad alte performance quindi è logico che non esistano nemmeno piattaforme che lo supportino.
Gli ARM a64bit ad alte prestazioni arriveranno, è inevitabile, ma non è una cosa così "rapida" visto che non conta la cpu ma il sistema completo d il parco software.

Premesso che tali sistemi "ad alte prestazioni" non potranno attaccare direttamente il settore desktop e notebook (il grosso dei clienti di tale settore da per scontato il requisito di retrocompatibilità con software x86), il punto d'attacco al mercato non può essere che quello dei server di fascia alta (quella "bassa" è già coperta dagli ARM per applicazioni embedded e dai SoC per smartphone/tablet).

Devi avere S.O. e software già pronto e ben testato, devi avere sistemi con autodiagnostica, hardware con availability 99.999% garantita ecc. ecc.
Persino il software deve dati alla mano offrire prestazioni migliori e non basta promettere che "poi migliorerà con la prossima release del compilatore".
Se hai un processore più potente ma le ottimizzazioni automatiche del compilatore (o del sistema JIT) non sono ancora all'altezza o la concorrenza seppur con cpu meno performanti compensa la cosa con maggiori prestazioni di I/O verso le interfacce di rete ed i dischi, non riuscirai a trovare acquirenti.
Per questo preparare il "pacchetto completo" non è uno scherzo.

Tieni presente che pure Intel per "sfondare in alto" con Itanium dovette fare un accordo ferreo con HP (pure troppo, è il motivo principale per cui Intel è di fatto "obbligata" a continuare a produrre gli Itanium) perchè altrimenti l'Itanium non lo avrebbe preso nessuno.

Questo perchè HP aveva già la reputazione la credibilità necessaria presso i potenziali clienti mentre Intel era quella che aveva floppato due volte (con iAPX32 e con i860).

iAPX32 era stato un flop di dimensioni epiche (si fermò allo stadio di prototipo)
e poi anni dopo il primo flop, Intel aveva provato a "far da se" con la cpu RISC i860 (cpu 80860 da non confondere con il chipset 860 per cpu x86) ma in pratica fu ignorata da tutti i pezzi grossi (avevano già investito forte su loro cpu che erano più o meno prestanti come i860 e cambiare gli sarebbe costato troppo).
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 18-12-2013, 07:54   #34
dobermann77
Bannato
 
Iscritto dal: Feb 2013
Messaggi: 1552
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Gli ARM a64bit ad alte prestazioni arriveranno, è inevitabile
E' comunque bene evidenziare che siamo MOLTO piu' vicini ad avere gli Intel a bassissimi consumi che gli ARM ad alte prestazioni.
Questo per fare ordine su chi sta invadendo il mercato di chi.
dobermann77 è offline   Rispondi citando il messaggio o parte di esso
Old 18-12-2013, 11:21   #35
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Secondo te un azienda investe risorse immani su un chip "da server" per produrre un dispositivo su cui far girare solo SteamOS ?
Perchè Windows secondo te gira sui servers ?
Quando parli di Windows in automatico ti riferisci al mondo desktop, Win Server non è così diffuso e l'open source è in netto avanzamento.

Quote:
Considera che TUTTE le console uscite sino ad ora sul mercato sono basate su cpu che il produttore aveva "già pronte", ovvero "customizzate" ma non progettate da zero.
Quindi ?
Non progetteranno mai da zero un nuovo prodotto e non vedrò mai un ARM ad alte prestazioni ?
Scusa ma non è la stessa cosa ?

Quote:
Gli ARM a64bit ad alte prestazioni arriveranno, è inevitabile, ma non è una cosa così "rapida" visto che non conta la cpu ma il sistema completo d il parco software.
Sbaglio o Apple A7 è già a 64bit così come lo sono tutti i SoC basati su ARM A54 e A57 ?

Quote:
Premesso che tali sistemi "ad alte prestazioni" non potranno attaccare direttamente il settore desktop e notebook, il punto d'attacco al mercato non può essere che quello dei server di fascia alta
Quindi ? Rimarranno nelle fasce basse ?

Quote:
Devi avere S.O. e software già pronto e ben testato, devi avere sistemi con autodiagnostica, hardware con availability 99.999% garantita ecc. ecc.
Persino il software deve dati alla mano offrire prestazioni migliori e non basta promettere che "poi migliorerà con la prossima release del compilatore".
Se hai un processore più potente ma le ottimizzazioni automatiche del compilatore (o del sistema JIT) non sono ancora all'altezza o la concorrenza seppur con cpu meno performanti compensa la cosa con maggiori prestazioni di I/O verso le interfacce di rete ed i dischi, non riuscirai a trovare acquirenti.
Per questo preparare il "pacchetto completo" non è uno scherzo.
Scusa eh ma l'OS o meglio il kernel c'è già e si chiama Linux ( Fedora 20 ha già il supporto ufficiale ARM al pari degli x86 ), su servers adesso usano già open source nella stragrande totalità dei casi ed è in crescita rispetto a Win Server mentre per il resto sbaglio o esiste Android che oramai è diffusissimo ed è la priorità più importante della maggior parte delle SH attuali e le applicazioni di conseguenza sono sempre di più ?
Android che altro non è che un OS basato appunto su Linux e spinto da Google.

Per l'hardware i SoC dovrebbero integrare tutto, non dovrebbero avere altro HW di supporto ed avendo molti distributori diversi per ogni SoC immesso nel mercato, il proprio produttore è anche liberissimo di lasciare il proprio software di supporto.

Ultima modifica di PaulGuru : 18-12-2013 alle 15:29.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 18-12-2013, 18:18   #36
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
Rispondo per l'ultima volta perché mi sembra una causa persa...

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Perchè Windows secondo te gira sui servers ?
Quando parli di Windows in automatico ti riferisci al mondo desktop, Win Server non è così diffuso e l'open source è in netto avanzamento.
Dipende da che server stai considerando. Sui server di media dimensione Windows esiste. Sui mega server, no. E questo fa la differenza se vuoi creare un sistema completamente nuovo. Vai a scontrarti con i big del settore come i Power e tutto quello che viene appresso di IBM. Ecco quindi che si inzia da una nicchia del mercato, quella più nuova, in espansione ed esposta (nel senso che non è facilmente copribile da Intel con quello che ha attualmente a disposizione).

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Quindi ?
Non progetteranno mai da zero un nuovo prodotto e non vedrò mai un ARM ad alte prestazioni ?
Scusa ma non è la stessa cosa ?
Ti è stato detto che non si fa nulla da zero per il semplice motivo che costa tanto. Secondo te quanto è l'investimento per creare un processore ARM da 4 miliardi di transistor? Quanti ne devi vedendere per ammortizzare il costo? Che mercato hai davanti (in termini di numeri di vendita)?

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Sbaglio o Apple A7 è già a 64bit così come lo sono tutti i SoC basati su ARM A54 e A57 ?
Ma 64 bit non è uguale a potenza spropositata! E' solo il principio per permetterti di gesitre più di 4GB di RAM in modo efficiente, ma non vuol dire che con 64 bit hai un processore super potente. Non cadere nel marketing Apple. Gli ARM 53/57 ancora non sono usciti. E' una tecnologia pensata per i 20nm, quindi finché non ci sarà qualcuno in grado di fabbricarli rimarranno sulla carta. E comunque questi nuovi processori a 64 bit sono destinati ai serve a basso consumo. Non faranno concorrenza né agli Xeon da 15 core né ai Power di IBM da 16 thread per core.

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Quindi ? Rimarranno nelle fasce basse ?
Sì se le fasce basse sono quelle con i maggiori numeri di vendita e consentono guadagni investendo relativamente poco.
E permettendosi di allargare piano piano il mercato senza rischiare il fallimento per aver fatto il passo più lungo della gamba. Secondo te è meglio investire mille per guadagnare 1500 qualche mese dopo o investire un milione con il rischio che non andrai mai in pari?

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Scusa eh ma l'OS o meglio il kernel c'è già e si chiama Linux ( Fedora 20 ha già il supporto ufficiale ARM al pari degli x86 ), su servers adesso usano già open source nella stragrande totalità dei casi ed è in crescita rispetto a Win Server mentre per il resto sbaglio o esiste Android che oramai è diffusissimo ed è la priorità più importante della maggior parte delle SH attuali e le applicazioni di conseguenza sono sempre di più ?
Android che altro non è che un OS basato appunto su Linux e spinto da Google.
Quindi faccio un processore da 4 miliardi di transistor e ci metto su Android? Oppure lo uso "solo" con Linux per i grandi sitemi di calcolo? Mi sembra che ti sei perso gli ultimi 20 anni di storia informatica per non aver visto che fine hanno fatto tutti coloro che avevano processori buoni solo per il mercato server. L'unica che ancora tiene è IBM, anche se è chiaro che ultimamente anche lei fa fatica a continuare a sviluppare quei mostri e a venderne a sufficienza per portare a casa i soldi necessari per anfare in pari. E considera che IBM non ti vende solo il silicio, ma con esso tutta l'assistenza e spesso anche una serie di vincoli.
Chi non può fare questo (e per farlo occorre una valanga di soldi oltre che una tecnologia già bella pronta e rodata) non può sperare di fare alcuna concorrenza in un mercato che "non perdona".

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Per l'hardware i SoC dovrebbero integrare tutto, non dovrebbero avere altro HW di supporto ed avendo molti distributori diversi per ogni SoC immesso nel mercato, il proprio produttore è anche liberissimo di lasciare il proprio software di supporto.
Un sistema fatto da centinaia o migliaia di CPU separate non si gestisce con "tutto nel SoC". Servono anche una serie di "nodi" fatti per comunicare con il resto del sistema e bilanciare carichi e risorse. O pensi che basta mettere in un frigorifero mille schede madri e collegarle ad uno switch di rete per fare un server HPC?
Fareil proprio SW vuol dire investire alemno tanto quanto s investe nel silicio. E per anni. Oltre a IBM, MS, HP, Oracle e qualche altra azienda, non vedo come tu possa pensare che se anche ti regalo i processori più super potenterrimi del pianeta tu possa pensare di fare del SW di supporto al pari di quello che è stato creato in 50 anni in un anno. O anche 3.
Samsung per quanto sia un colosso e possa fare HW decente a prezzo stracciato è ben lontana da poter sviluppare un qualcosa di paragonabile a quello che offrono IBM o HP o Oracle. Se comincia oggi forse tra 10 anni qualcuno potrebbe pensare di prendere in considerazione qualche suo prodotto. Nel frattempo però le risorse investite senza ritorno saranno enormi.

Non è che non si potrà mai fare o non è possibile. Questo tipo di investimenti richiede tempo e a guardare il passato, richiede anche una certa dose di "furbizia". E' storicamente dimostrato che non è il prodotto migliore quello che vince. Accordi e capacità di lock-in sono parte delle equazioni. E non sono termini marginali.

Oggi ARM ha tutta la capacità di mangiare completamente la base del mercato x86. E lo può fare senza che nessuno degli attori coinvolti nel processo rischi il fallimento. Semplicemente il prodotto è migliore di quello di Intel e Intel in questo mercato non si avvantaggia della retrocompatibilità. Ecco perché i numeri di vendita di ARM rispetto a quelli di Intel sono di 3 ordini di grandezza differenti.

Il prossimo ostacolo non è di tipo prestazionale. Ma è proprio quello di fare braccia nel mondo consumer che è x86 (ma diciamo pure Windows) dipendente per il SW. Basta vedere che diffusione ha Linux sulla stessa architettura. Se non garantisci la compatibilità con Windows sei out già in partenza.
Ecco allora che il mercato sta da tempo cercando di liberarsi della dipendenza da Intel usando Virtual Machine, JIT e Framework in Bytecode, sistemi cloud e thin client che permettono l'esecuzione su qualcosa di diverso da x86. Vedi proprio Android che tutti criticano perché "è lento" "lagga" "consuma più risorse"... certo tuttto vero, ma permette di girare su qualsiasi SoC (ARM, X86 e MIPS). Quando il tutto maturerà ancora di più, la questione "prestazioni" sarà secondaria perché si raggiungerà quella ben più critica della compatibilità.

Più ARM cresce, meno cresce Intel. Più ARM prendono piede più risorse sono spendibili per migliorare l'ambiente ARM (sia SW che HW) a scapito di Intel. Più i produttori di chip ARM prosperano, più possibiltà hanno di investire (piano piano) in altri mercati e ridurre ulteriormente il dominio di Intel.
Intel oggi cerca di entrare in un mercato che prima non ha mai guardato perché ha un processo produttivo all'avanguardia che compensa (in parte) gli svantaggi della propria architettura. Come detto tante volte, se perde quel vantaggio (e senza risorse garantite dalla vendita in grandissime quantità non può di certo mantenerlo) Intel non potrà sperare di "asfaltare" nessuno come fece negli anni passati.

Intel non è vicina per niente a creare qualcosa che consumi poco. Chiediamoci perché dal 2010, quando ha deciso di portare Atom nel mondo mobile, non è riuscita a creare qualcosa che consumasse 2 o 4W (complessivi come un SoC ARM).
Dato che il mondo mobile non ricerca l'uso di processori con IPC pari a un i7, fare un processore con i consumi, le prestazioni e le dimensioni di un ARM sarebbe già stato un passo avanti per cercare di ridurne l'espansione.
Invece Intel può arrivare fino ad un certo punto. Più sotto non riece ad andare (anche perché a furia di rimuovere transistor per consumare meno le prestazioni ne risentono eccome). Tutti i confronti fatti oggi da Intel sono fatti o con sistemi che consumano almeno 3 volte tanto, o paragonati ad architetture ARM vetuste. Nel 2010 si presentò con un confronto contro un A8 monocore (che consumava 1/10 ed era grande pure 1/10 rispetto alla sua creatura e Intel gongolava perché andava più del doppio in int e una infinità in più in FP). Oggi si presenta con un confronto contro un A9 (del 2010), quando gli A15 sono fuori da più di un anno e gli A57 sono alle porte.
Credete pure nei numeri che volete, ma la realtà è che ARM ha tutto il potenziale di miglioramento possibile, dovuto anche agli investimenti di molti attori, mentre Intel continua a deludere le aspettative. I suoi Bay Trail a 22nm mica si scontreranno con gli A9 a 40nm, ma con gli A57 a 20nm. Sono quelli i paragoni che Intel dovrebbe proprorre, non dimostrare che nel 2014 con 2 PP di vantaggio rispetto ai 40nm del 2010 ancora non è arrivata ad avere gli stessi livelli di prestazioni/consumi. I grafici precedenti quello mostrano, dato che si confronta un 20W+bridge andando 4 volte di più di un SoC che con 5W alimenta anche 4GB di RAM in un mercato dove il numero dei core non è un problema, i consumi sì.
D'altronde il mercato è chiaro: in 4 anni Intel ha venduto una manciata di Atom (sopratttuo nel mercato server a basso consumo) vs qualche miliardo di ARM nel mercato mobile. Ora che ARM arriva a lambire il mercato server a basso consumo, ad Intel non basta fare qualcosa che appare migliore di un SoC ARM 4 anni più vecchio. Se perde anche quel mercato gli Atom saranno buoni solo come costose decorazioni da appendere agli alberi di Natale.

Ultima modifica di CrapaDiLegno : 18-12-2013 alle 18:26.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza Motorola edge 70: lo smartphone ultrasottile che...
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026 Display, mini PC, periferiche e networking: le n...
Le novità ASUS per il 2026 nel settore dei PC desktop Le novità ASUS per il 2026 nel settore de...
Le novità MSI del 2026 per i videogiocatori Le novità MSI del 2026 per i videogiocato...
I nuovi schermi QD-OLED di quinta generazione di MSI, per i gamers I nuovi schermi QD-OLED di quinta generazione di...
Stipendio Tim Cook 2025: perché l...
Intel attacca AMD, che risponde: volano ...
Nutanix potenzia la Cloud Platform: pi&u...
TIM e Fastweb + Vodafone uniranno le for...
Marketing e Media: le startup italiane c...
AGCOM multa Cloudflare: 14 milioni di eu...
Iran isolato dal mondo: internet azzerat...
iPhone: iOS 18 domina ancora su iOS 26. ...
Cooler Master porta la personalizzazione...
La fabbrica Tesla di Berlino è a ...
Nuova bufera su X: diversi Paesi minacci...
Apple Watch SE 3 in offerta: lo smartwat...
Toyota diventa il marchio con più...
TikTok diventa la piattaforma ufficiale ...
Rimossa l'attivazione telefonica su Wind...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 13:20.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1