|
|
|
![]() |
|
Strumenti |
![]() |
#61 | |
Senior Member
Iscritto dal: May 2005
Messaggi: 12120
|
Quote:
Itanium, è nato per gli ambienti Mission Critical, cosa che gli Xeon della fascia media ( attuali E5 ), non sono. Per gli ambienti Mission Critical X86 ci sono anche gli Xeon E7, ma non credo che abbiano una quota di mercato tanto superiore agli Itanum. Intel è riuscita ad imporre gli Xeon della fascia media per il semplice fatto che l'X86 è piu diffuso, meno sbattimenti per i software, molto piu versatile, piu adattabile e piu economico.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360 ![]() |
|
![]() |
![]() |
![]() |
#62 | |||||||
Bannato
Iscritto dal: Sep 2012
Messaggi: 207
|
Quote:
![]() Quote:
![]() Rimanendo sulla gpu va però detto che è un cooprocessore poco specializzato, cioè non è paragonabile per esempio al chippino per il linguaggio naturale del Moto X (che può fare solo quello e stop), ed è per quello che è in grado di essere utilizzata da diverse applicazioni. Però, se esistesse una gpu specializzata per l'opengl, essa in opengl distruggerebbe una gpu general purpose no? Tanto quanto una gpu distrugge una cpu nei calcoli per i quali è progettata. Alla fine il punto è sempre quello, più un chip è specializzato più è rapido a elaborare ciò per cui è stato progettato ma al contempo diventa sempre più inutile per il resto, quindi generalmente si cerca una via di mezzo tra specializzazione e forza bruta che accontenti un po' tutti gli usi. Però tu sembri suggerire che ARM sia migliore perché in futuro potrà integrare un cooprocessore specifico per ogni compito e francamente la cosa mi sembra molto poco realistica, ci ritroveremo con decine di chippini buoni ognuno per un solo uso o per un ristretto ambito d'utilizzo, con il 90% della cpu inutilizzata. Quote:
Seguendo questa strada ci ritroveremo ad avere o decine di cpu diverse che differiscono per i vari cooprocessori implementati oppure cpu con parti inutilizzate (visto che nessuno utilizzerebbe tutti i chip specifici inseriti). ps: sul formato si applica lo steso discorso della gpu, un chip specifico per un determinato formato andrebbe meglio di uno generico per tutti i formati, alla fine bisogna solo scegliere quanto nello specifico si vuole scendere, più ci si specializza meno versatili si diventa guadagnandoci però in prestazioni nel compito specifico. Quote:
Quote:
Quote:
Chissà, l'evoluzione a volte può sorprendere (non so se si è capito dai miei innumerevoli richiami all'evoluzione ma sono più ferrato in biologia che in informatica e quindi tendo ad applicare le stesse regole anche qui ![]() Quote:
Per fare un'esempio in campo motoristico, un motore a getto è più efficiente a partita di potenza erogata di un'analogo a pistoni, però è anche molto meno versatile ed è per questo che viene utilizzato solo su determinati veicoli ed il motore a pistoni non si è estinto dopo la sua invenzione. Già, o meglio, sarebbe più giusto dire che sempre più dispositivi diventeranno dei pc ed il desktop vero e proprio rimarrà solo per utilizzi in cui è richiesta una potenza notevole Ultima modifica di Giachi6 : 06-08-2013 alle 19:31. |
|||||||
![]() |
![]() |
![]() |
#63 | ||||||||||||||
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
in passato il chip grafico leggeva dal framebuffer e inviava i dati allo schermo....Amiga faceva invece come fanno le gpu moderne...il risultato? Amiga batte PC 40 a 0 ![]() Quote:
per rendere la gpu flessibile ma non inutile, hanno ben pensato di farla diventare un processore simd....alla fin fine fa esattamente quello che fa una normale cpu, solo che contiene una marea di componenti capaci di fare operazioni matematiche su matrici e vettori anche di grandi dimensioni ma pure le cpu x86 stanno integrando sempre più coprocessori....basti pensare che gli attuali core hanno unità per accelerare gli algoritmi crittografici il dsp del moto x svolge una sola funzione ( i dsp sono così )...però, anche nel mondo arm, è raro che si adottino soluzioni così drastiche, a meno di non voler creare un SoC specializzato Quote:
però la flessibilità diminuisce....il giusto compromesso dipende dall'applicazione gli arm che usiamo sugli smartphone hanno chip acceleratori alla stregua delle gpu, non dei dsp usati dal motorola x Quote:
arm, da parte sua, sviluppa la cpu, i bus e poche altre cose...i chip dedicati sono affare di chi progetta il SoC il punto è che qualsiasi caso d'uso, ha una bassa variabilità....se prendi gli attuali pc, ti accorgerei che il lavoro pesante consiste nel gestire la grafica 3d, l'encoding/decoding dei formati audio, l'i/o, ecc... le cpu dei pc sono assistite da un buon numero di chip arm, presenti in varie componenti periferiche i SoC arm per il mobile accelerano in maniera aggressiva le operazioni tipicamente associate alla fruizione di contenuti audio/video ( che poi è quello che pesa sia su pc sia su mobile ) per il resto, esistono da anni SoC arm specializzati per determinati ambiti e si, ogni SoC ha delle particolarità e talvolta incompatibilità con altri SoC sempre basati su arm Quote:
il tipo di calcoli che si usano per grafica, video, audio, ecc.... e ovviamente entrano in gioco le economie di scala, ovvero il chippino si progetta una sola volta, poi se ne producono miliardi a costi di pochi centesimi di euro Quote:
Quote:
per le parti inutilizzate, beh, chi progetta uno smartphone non mette un SoC come quello di Parallela al posto di un Exynos ( se lo fa, farebbe bene a cambiare mestiere ) Quote:
Quote:
![]() Quote:
si comincia con un set d'istruzioni a lunghezza fissa, il che semplifica mostruosamente la circuiteria che esegue il fetch, oltre a non dover avere altri circuiti che calcolano la locazione dove andare a pescare la prossima istruzione poi c'è tutta la circuiteria per gestire la segmentazione ( che oltretutto nessun sistema operativo moderno usa ) insomma, i chippettini aiutano, ma c'è dell'altro e proprio nella cpu purtroppo la retrocompatibilità è una lama a doppio taglio e intel ha dovuto fare cose da pazzi con atom ( prima fanno una cpu in-order, poi levano i 64 bit, poi li rimettono, poi la rifanno out-of-order ma con processi produttivi molto migliorati )...tutto questo indica la presenza di enormi difficoltà Quote:
i vecchi si estinguono, i nuovi emergono...intel sta mantenendo in vita un vecchiaccio ![]() Quote:
però ultimamente si è arrivati ad avere una massa critica di ip ( cioè progetti di circuiti ) che svolgono le più disparate funzioni, vengono concessi in licenza a prezzi relativamente abbordabili, la legge di Moore sta rallentando e i cinesi producono a prezzi stracciati ogni sorta di chip e/o scheda elettronica Quote:
Quote:
cioè lo smartphone può far girare photoshop, non lo fa perchè adobe non ha portato photoshop su smartphone qualche mese fa ho passato 4 giorni e una trentina di post per cercare di far capire questo concetto a maxmax80...il brutto è che continua a ribattere a discorsi tecnici con dati di mercato e poi c'è il fatto che i produttori di SoC arm sono partiti dal basso e stanno man mano aumentando le capacità dei loro prodotti....ovviamente progettare un SoC più potente richiede tempo e denaro, motivo per cui non abbiamo oggi SoC arm che possano competere con x86 in termini di potenza pura ce ne sono alcuni, ma sono di nicchia ed usati solo in determinati ambiti e c'è molto altro da dire, perchè la storia continua con gli fpga e compagnia, che sono bestioline alquanto interessanti e dalle potenzialità strabilianti |
||||||||||||||
![]() |
![]() |
![]() |
#64 | |
Senior Member
Iscritto dal: Jan 2010
Città: Milan
Messaggi: 9802
|
Quote:
detto questo Photoshop su tablet ti dicono tutti che è imbarazzante attualmente. quando i tablet ARM saranno carrozzati per supportare applicazioni più pesanti saremo tutti ben felici di constatarlo. hai appena detto tu stesso che come potenza pura X86 è ancora attualmente meglio. domani si vedrà. p.s. Intel ha anche implementato le GPU nei suoi processori per tagliare progressivamente via la fetta di mercato delle GPU discrete di bassa e media fascia. per usi lavorativi pesanti o di gaming pesante, una GPU discreta è ancora d' obbligo |
|
![]() |
![]() |
![]() |
#65 | |||
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
e infatti ci sono SoC arm per server che competono con gli xeon Quote:
il vero motivo è che così si ottiene maggiore efficienza ( è intel stessa a dirlo ), costi ridotti e si può sfruttare l'accelerazione offerta dalla gpu ( che è sempre presente in questo caso ) per il gpgpu Quote:
semmai è il gaming il problema |
|||
![]() |
![]() |
![]() |
#66 | |||
Senior Member
Iscritto dal: Jan 2010
Città: Milan
Messaggi: 9802
|
Quote:
peccato che qui si sta parlando di ambito tablet vs desktop e tu stesso hai detto che l' x86 ha dalla sua -per ora- la potenza Quote:
il chipset ha già accorpato NB+SB, ed evidentemente se (altre ad ARM) anche AMD fa le APU forse è la strada giusta mettere GPU & CPU insieme.. e non vedo perché intel avrebbe dovuto fare diversamente, visto che una cpu con gpu integrata è molto più appetibile per il potenziale cliente. detto questo fra l' implementazione di gpu "normali" (integrate da intel, arm ed anche da amd (anche se le sue sono più spinte)) e l' utilizzo di VGA PCI dalle performanche superiore, ne passa un abisso Quote:
adesso pure le gpgpu tiri in ballo? che sono una nicchia che non c' entrano con l' Ubuntu touch per smarphone!! ![]() divaghi sempre.. |
|||
![]() |
![]() |
![]() |
#67 |
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6151
|
No, ricordo benissimo i primi articoli nelle riviste del settore quando ancora veniva chiamato "architettura EPIC" e poi IA-64 anni prima che venisse chiamato Itanium.
Secondo i piani iniziali doveva essere l'architettura "standard" a 64bit di Intel, da far debuttare prima nei server di fascia alta e poi piano piano sostituire gli x86 (che sarebbero "morti" come cpu a 32bit) quando il mercato gradualmente prima dall'alto e poi verso il basso avrebbe fatto la transizione verso i 64bit. E' per quel motivo che Intel si ritrovò a dover inseguire AMD per quel che riguarda gli x86 a 64bit. Solo quando il disastro dell'Itanium non si poteva più negare in Intel adottarono la classica strategia della volpe e l'uva e ridimensionarono gli obiettivi riguardo quella famiglia di processori. |
![]() |
![]() |
![]() |
#68 | ||||
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
Quote:
Quote:
Quote:
la gpu cos'é? e i SoC cosa integrano? se rispondi a queste due domande, capisci perchè le gpu seguono la filosofia, chiamiamola di ARM, e non quella delle cpu classiche ( che poi nemmeno x86 segue più quella filosofia ) e sai l'ultima? le cpu x86 attuali sono dei RISC che emulano un set d'istruzioni CISC!!! |
||||
![]() |
![]() |
![]() |
#69 | |
Senior Member
Iscritto dal: May 2004
Messaggi: 7856
|
Quote:
Le cpu attuali atom e i futuri atom silvermont non sono dei risc che emulano il set x86 cisc, questo vale solo per la serie di cpu desktop/server, per l'architettura a basso consumo l'intel ha mantenuto un approccio che mantenesse le istruzioni x86 su tutta la pipeline perche la conversione da cisc a risc porta via troppo spazio del die e consuma troppe risorse nel decoder e serve solo quando si devono puntare ad alte prestazioni. Quindi gli atom odierni e futuri dopo aver fatto il fetch delle istruzioni le passano al decoder che pero a differenza delle cpu di classe superiore non le traducono in microops ma continua a usare le istruzioni x86 come base delle pipeline. Amd con il core bobcat e in nuovo jaguar fa esattamente la stessa cosa. Ultima modifica di coschizza : 07-08-2013 alle 12:07. |
|
![]() |
![]() |
![]() |
#70 | ||
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
usare il SoC di Parallela per eseguire espressioni regolari sarebbe folle, il SoC non è minimamente ottimizzato per quel genere di carico di lavoro ma parlare di workstation o server è praticamente uguale, visto che si tratta di ambienti eterogenei, dove i carichi di lavoro sono estremamente variegati ( cioè c'è un pò di tutto ) l'unica differenza tra server e pc/workstation è la velocità dell'I/O ( i server leggono e scrivono molti dati su disco ) e la banda di memoria...ma proprio su quest'ultima, ARM mostra una flessibilità impressionante, addirittura si arriva a situazioni ( come quella della board Novena, board amatoriale!!! ) che ha una memory bandwidth molto elevata Quote:
|
||
![]() |
![]() |
![]() |
#71 | |
Senior Member
Iscritto dal: May 2004
Messaggi: 7856
|
Quote:
arm ora non ha nessun soc per server di fatto e nemmeno un architettura a 64bit, poi ci sono tutte le parti riguardanti la virtualizzazione e altre feature che per ovvi motivi ora ancora non sono sviluppate. E manca sopratutto ancora un supporto software adeguato che è ancora piu importante, ma finche non ci sara l'hardware è normale che questo manchi. Ultima modifica di coschizza : 07-08-2013 alle 13:10. |
|
![]() |
![]() |
![]() |
#72 | ||
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
Quote:
riguardo le altre feature, a quali ti riferisci? pensa che gli arm supportano pure l'accelerazione di aes e sha1/sha2, quindi non so a quali caratteristiche ti stai riferendo e c'ha pure il supporto jtag, che gli x86 non hanno ( giusto per citare qualche plus ) c'hanno pure il supporto alle pagine di memoria non executable ( se ti riferivi a questa feature ) e ci sono pure le estensioni jazelle, ovvero accelerazione hardware per java!!! mica male ![]() |
||
![]() |
![]() |
![]() |
#73 |
Senior Member
Iscritto dal: May 2004
Messaggi: 7856
|
|
![]() |
![]() |
![]() |
#74 | |
Senior Member
Iscritto dal: Jan 2008
Messaggi: 8406
|
Quote:
2011!!!! e quoto "As the X-Gene implements the ARMv8 ISA it is a full 64-bit architecture that is backwards compatible with 32-bit ARMv7. The CPU features hardware virtualization acceleration, MMU virtualization, advanced SIMD instructions" "Despite the aggressive architecture, each core is estimated to consume only 2W per core. Like most mobile SoCs, the entire chip will idle at around 300mW." slide eh!?! |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 11:48.