Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondono completezza e duttilità
ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondono completezza e duttilità
NUC 15 Pro e NUC 15 Pro+ sono i due nuovi mini-PC di casa ASUS pensati per uffici e piccole medie imprese. Compatti, potenti e pieni di porte per la massima flessibilità, le due proposte rispondono in pieno alle esigenze attuali e future grazie a una CPU con grafica integrata, accompagnata da una NPU per la gestione di alcuni compiti AI in locale.
Cybersecurity: email, utenti e agenti IA, la nuova visione di Proofpoint
Cybersecurity: email, utenti e agenti IA, la nuova visione di Proofpoint
Dal palco di Proofpoint Protect 2025 emerge la strategia per estendere la protezione dagli utenti agli agenti IA con il lancio di Satori Agents, nuove soluzioni di governance dei dati e partnership rafforzate che ridisegnano il panorama della cybersecurity
Hisense A85N: il ritorno all’OLED è convincente e alla portata di tutti
Hisense A85N: il ritorno all’OLED è convincente e alla portata di tutti
Dopo alcuni anni di assenza dai cataloghi dei suoi televisori, Hisense riporta sul mercato una proposta OLED che punta tutto sul rapporto qualità prezzo. Hisense 55A85N è un televisore completo e versatile che riesce a convincere anche senza raggiungere le vette di televisori di altra fascia (e altro prezzo)
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 17-02-2014, 22:22   #81
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da calabar Guarda i messaggi
Eheh hai ragione, non riusciamo a capirci.

Riguardo all'uso della GPU per la codifica/decodifica video, i vantaggi naturalmente stanno proprio nel portare su GPU ciò che su GPU viene calcolato con maggiore efficienza.
Le nuove tecnologie stanno puntando proprio a questo: non una GPU che esegue tutto, ma una GPU che è possibile richiamare come una qualsiasi altra risorsa interna di calcolo (un cluster int, una fpu...) per poter dare ad essa in pasto quello per cui è più efficiente.
Questo potrà permettere di spostare su GPU quelle applicazioni particolarmente gravose per la CPU che oggi ci fanno sentire la necessità di CPU più potenti. Il resto rimarrà su CPU, ma una CPU con un carico di lavoro alleggerito e che esegue calcoli a lei congegnali.

Si tratta naturalmente di teoria, fino a quando non viene concretamente applicata. Però la strada tracciata è quella.
A ciò che ha scritto CrapaDiLegno aggiungo che uno scenario come quello delineato è poco aderente alla realtà. Le unità disponibili con HSA non hanno lo stesso "costo" di accesso / utilizzo di una normale ALU, FPU, SIMD. Inoltre non è realistico uno scenario in cui continuamente richiedi i servigi di un'unità HSA, come già detto nel precedente commento.

Primo perché certe elaborazioni vengono suddivise in una pipeline di esecuzione che provvede a elaborare di blocchi di informazioni tutte di uno stesso tipo, e dunque senza una continua alternanza delle varie fasi e, dunque, di utilizzo promiscuo delle unità di calcolo, HSA e non HSA, a disposizione.

Secondo perché per sfruttare un'unità HSA servirà un protocollo di comunicazione, che la CPU utilizzerà per comunicare cosa vuole, i dati da passare eventualmente, e per ricevere poi il risultato. Cose non istantanee, insomma.
Quote:
Originariamente inviato da calabar Guarda i messaggi
Il problema dell'hardware ad hoc è che non è adattabile.

Quicksync va bene per per fare delle conversioni veloci senza stressarsi molto, ma è assolutamente inadeguato per fare conversioni di qualità. Se ne parlava prima.

In fin dei conti dipende dalle esigenze.
Quicksync non è più veloce di una GPU, è più efficiente. Questo perchè non ha senso dedicare un hardware paragonabile a quello di una GPU ad una singola funzione, se non in situazioni particolari.
Se devo quindi fare conversioni di qualità, quicksync non mi serve a nulla, posso farle con CPU+GPU in tempi anche minori e con risultati superiori. Certo, consumo molto di più, è il prezzo da pagare per l'uso di un hardware general purpose, ma non sempre questo fattore è importante.
Ma Quicksync potrebbe anche evolversi in futuro, e consentire risultati qualitativamente migliori senza cambiare l'interfaccia per il software che utilizza questa tecnologia.
Quote:
La logica fissa non potrà mai evolversi con i nuovi algoritmi, non potrà mai uscire dalle funzionalità per cui è stata creata. Se domani tutti codificano con un nuovo algoritmo, il chip ah hoc lo puoi anche cestinare. Se qualcuno tira fuori una matrice custom particolarmente efficiente o adatta al tipo di source da codificare, con la logica fissa non puoi utilizzarla.
Ti sembrerà strano, ma invece è proprio quello che si fa. Infatti i chip o le GPU più vecchie che contengono un'unità di accelerazione video rimangono limitati agli algoritmi di decodifica per i quali sono stati progettati. Quelli più nuovi implementano gli altri nuovi algoritmi. Facci caso.

E' uno svantaggio rispetto a un'unità più generica? Senz'altro. Ma ha anche il netto vantaggio di essere ben più efficiente, ed è il motivo per cui, nonostante i difetti, è la via che viene ancora battuta.
Quote:
La GPU può essere insomma un'ottima risorsa hardware per una serie di compiti (che non sono così pochi) per i quali useresti altrimenti una CPU più lenta e meno efficiente.
Del resto, a differenza di un hardware dedicato, la GPU fa comunque parte del nostro computer, tanto vale utilizzarla a dovere.
Ma anche la CPU s'è evoluta col tempo, e riesce a macinare parecchi numeri adesso. C'è una sorta di convergenza dei due mondi.
Quote:
Originariamente inviato da calabar Guarda i messaggi
Non mi pare di aver mai affermato il contrario.
Qui si parla di sfruttare le risorse hardware presenti nel computer, e la GPU è una di queste. Anche la fpu integrata in pressoché tutti i processori attuali è un coprocessore (e le SSE che citi girano appunto sulla fpu, come le 3Dnow prima di loro).
Diciamo che sfruttano le stesse risorse (moltiplicatori e sommatori delle FPU), ma è una questione puramente di convenienza, perché potrebbero benissimo essere del tutto indipendenti a livello implementativo, con risorse di calcolo appositamente ed esclusivamente dedicate.

Tra l'altro sono già indipendenti, a parte 3DNow! e MMX che sono mutuamente esclusive rispetto alla FPU. Provare per credere.
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Quello che dici è vero, ma si parla di codifica di video, e non nasce un algoritmo di compressione alla settimana.
Infatti i decoder nelle VGA sono altrettanto a funzione fissa e permettono di decodificare i formati più comuni e più richiedenti potenza computazionale.
Una unità che permetter per esempio di calcolare la FFT in tempi rapidissimi con buona precisione sarebbe già un bel blocco base su cui realizzare quasi tutti i codec/decoder. In quel caso potresti farti il tuo algoritmo personalizzato con buona efficienza senza dover scomodare 1000 e rotti ALU general purpose.
E' vero che gli algoritmi di compressione nuovi non arrivano giornalmente, ma è anche vero che portano novità non di poco conto.

Ad esempio la DCT (la FFT non viene usata in quest'ambito) è alla base di JPEG ed MPEG 1 & 2, ma JPEG 2000 ed MPEG4 (e successori) sono basati sulle trasformate wavelet, e di queste ultime ce ne sono diverse.

Oppure potremmo parlare della codifica utilizzata, che può sfruttare Huffman o uno dei tanti algoritmi di codifica aritmetica.

E così via anche per gli altri aspetti (quantizzazione, spazi di colore, componenti cromatiche, raggruppamento delle informazioni, ROI, ottimizzatore, e probabilmente qualcos'altro che adesso non mi sovviene).

Nonostante ciò, si preferisce continuare a mettere a disposizione sezioni di de/codifica video dedicate perché sono di gran lunga più efficienti e prestanti di una circuiteria general purpose.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 17-02-2014, 22:31   #82
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Il micro dell'Amiga 1000 era un CPU a 7MHz, uno sputo in confronto all'HW che Intel da lì a poco riuscì a sfornare. Ebbene, prendi un PC del tempo e tenta di fare un programma come Scala (se non sai cosa è Google rimane tua amica). Non c'è Pentium a nessun Ghz che sia in grado di eguagliare le performace dello sputo a 7Mhz. Perché? Semplicemente perché c'erano 2 coprocessori che facevano il lavoro che nessuna delle migliaia di ALU presenti oggi nelle GPU è un grado di fare (e infatti le GPU ancora oggi usano unità simili a quelle per fare il 2D). I Pentium proprio non avevano speranza di fare un bel nulla, nemmeno con le VGA esterne, dato che mancava il segnale di sincronismo al pennello elettronico, ritenuto superfluo al tempo.
Per amore della precisione va detto che un 386 con una VGA era in grado di eseguire senza problemi effetti di transizione che un software come Scala metteva a disposizione, e anche di più complessi.

Il problema della VGA non era tanto nella mancanza di sincronismo al pennello elettronico (era possibile riconoscere l'inizio sia delle fasi di horizontal e vertical blanking; inoltre nello standard VGA/MCGA di IBM era persino prevista le possibilità di generare un interrupt all'inizio del vertical blanking, anche se poi tanti produttori di cloni non hanno implementato quest'utilissima funzionalità nelle loro schede video), quanto della mancanza del supporto ai genlock, ossia la possibilità di "marcare" un particolare colore dell'immagine generata come "buco" da poter "forare" per mostrare la grafica di una sorgente esterna.

Non servivano i coprocessori dell'Amiga allo scopo, quanto la funzionalità di ZD (Zero Detect) del colore della palette, che il chip video (Denise) metteva a disposizione.

Per il resto sono abbastanza d'accordo, anche se non sono dello stesso avviso per quanto riguarda il Cell.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 18-02-2014, 00:34   #83
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3877
Mii. sta diventando un romanzo... scusa se non rispondo a tutto, ma è tardi e la mente un po' offuscata.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Ma questo come fai a dirlo? In base a cosa puoi sostenere un'affermazione così assoluta oltre che lapidaria?
Che affermazione lapidaria? Metti di non avere alcun progetto che possa realizzare vendite come quelle di ARM. Che le fai a fare le nuove fabbriche con nuovi processi produttivi se prima non hai ammortizzato quelle precedenti? Che al ritmo di vendita senza ARM vuol dire una ogni 5 o 6 anni.
D'altronde, a TSMC non gliene frega nulla che l'ultimo SoC che sforna sia meglio o peggio dell'ultima CPU di Intel. Lei vende comunqe un fracco. E' Intel che si preoccupa del fatt che l'ultimo SoC ARM da la paga al suo ultimo SoC Atom o che la sua Xeon Phi prima versione fa figura del menga contro un'architettura a pari PP (quella nvidia, e su questo punto approfondisco dopo).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Intel non aggiorna immediatamente tutte le sue fabbriche. Infatti i chip (da Quark a Itanium, inclusi i chipset) che produce non utilizzano tutti l'ultimo processo produttivo.
Questo non vuol dire che non produca con l'ultimo PP quello che ritiene avere dei problemi di competizione. Come detto Quark lo può fare a 1 nm e sempre vincolato nelle nicchie dell'embedded rimane. L'Itanium è morto già di per sé e lo potrebbe fare anche a 1um se non le servisse un metro quadro di silicio.
Non è infatti un caso che l'Atom è passato dall'essere realizzato con la penultima versione di PP alla prima.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Il che è naturale, visto che un processo produttivo migliore le consente di sfornare molti più chip per wafer. Per cui o utilizza lei tutta quella capacità produttiva, oppure le servono altri clienti se vuole migliorare (massimizzare, idealmente) i profitti.
Non no è normale, perché quando decidi quante fabbriche aggiornare (che costano miliardi, non noccioline) prevedi con accuratezza (per qunato puoio, non certo tirando i dadi) un certo numero di vendita. Inutile aggiornare 2 fabbriche se sai che una fabbrica aggiornata produce il doppio della precedente ma vai a vendere lo stesso numero di chip. Con i 22 nm Intel ha sforato il previsto, cercando partner terzi per riempire le fabbriche semi vuote, con i 14 ha sforato completamente riuscendo ad evitare di aprirne inutilmente una intera. No, non lo considero normale fare un progetto che prevede il doppio della produzione e poi arrivare alla metà. E no, non è nemmeno la crisi in generale. E' dato alla crisi del PC in particolare, causata da ARM che al contrario vende sempre di più e permette a TSMC di aprire fabbriche apposite snobbando altri mercati.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
In passato non ha avuto bisogno di clienti perché riusciva a soddisfare da sola la sua capacità produttiva, ma adesso è diverso.
Anche con i 22nm non ha saturato la sua capacità produttiva. Il problema sinceramente non è che abbia sbagliato o ci abbia rimesso dei soldi per una fabbrica che non le serve, ma quanto le serve in termini di tempo per ammortizzare i nuovi processi produttivi se invece che vendere di più vende a ogni generazione la metà del previsto. Non bisogna stupirsi se i 14nm sono in ritardo di oltre 9 mesi (e i 22 lo furono di altrettanto se non ricordo male). Intel è un po' tra l'incudine e il martello. Mentre vorrebbe tirare avanti un po' l'arrivo del nuovo PP è però costretta a non fare troppo ritardo perché altrimenti perde in competitività.
Quello che intenevo con il fatto che le altre fonderie non sono costrette a rincorrere un PP a tutti i costi. Al massimo ad incazzarsi saranno i clienti, ma alla fine si devono accontentare di quel che la fabbrica propone loro non essendoci alternative.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
[...]
Per cui forse ti confondi con Texas Instruments e le sue famose calcolatrici, che però erano basate per lo più su 68000.
[questione calcolatrici evolute...]
Mi sa che hai preso un p' troppo alla lettera la mia affermazione. Rimane comunque il fatto che rispetto a quello che offriva Intel al tempo, i processori ARM erano delle calcolatrici poco più che evolute. Diverso il discorso dopo l'arrivo di Apple e l'iPhone nel 2008. Da lì l'accelerazione è stata sorprendente anche per Intel (vedi discorso Atom del 2008 fatto con PP vetusto già al tempo e chipset ancora peggiore che non fa certo pensare che Intel credesse in un arrembaggio di ARM in così breve tempo).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non mi pare che sia Intel ad avere in mano le redini dell'architettura ARM, e a decidere in che modo far maturare quest'architettura. E' ARM che produce le sue IP e fa evolvere le proprie micro/architetture.

Intel è stato un cliente come un altro, che ne ha acquisito le licenze, e prodotto le sue versioni personalizzate (a cui ha aggiunto estensioni simili alle MMX, ad esempio).

Non vedo, quindi, in che modo il lavoro di Intel avrebbe potuto avvantaggiare ARM, visto che non ne aveva il pieno (e assoluto, come da sua tradizione) controllo...
Mica ho detto che Intel aveva in mano le redini di ARM, ma come ben sai di ARM puoi comprare l'ISA e implementartela come meglio credi ala Qualcomm.
INtel sicuramente avrebbe potuto contribuire non poco a realizzare il meglio dell'architettura ARM se avesse voluto. Certo che i cervelli non gli mancano (con tutto il rispetto per Qualcomm, ma Intel è un'altra categoria).
Giustamente, dal punto di vista di promozione della propria IP, abbandonare ARM è stata la mossa più giusta. Peccato che poi la propria IP si sia dimostrata insufficiente a tenere testa all'evoluzione che ARM ha fatto anche senza l'aiuto implementativo di Intel (ora però c'è Apple che sforna implementazioni di nota).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Infatti s'è ritagliata il suo segmento anche nel settore embedded, ma questo con la serie 8085 di microcontrollori a 8-bit, perché in questo campo per parecchio tempo non serviva altro. Tant'è che è stato un fiorire di architetture a 8-bit dedicate allo scopo, oppure sono stati impiegati vecchi processori (6502, Z80, 6800 sono gli esempi più noti) e riutilizzati allo scopo.
[...]
No cioè, aspetta, stiamo parlando di embedded fatto con le CPU moderne o quelle dell'anteguerra? No perché non è certo con le licenze egli 8085 e simili che Intel tirerà avanti il carretto. Senza contare che nell'embedded semi evoluto (che non sono gli 8 bit ma nemmeno sistemi ad alto carico computazionale) è sempre ARM a farla da padrona, visto che è inserita in qualche miliardo di dispositivi ogni anno (se Intel prendesse posto con il suo QUark di un centesimo di quel mercato sarebbe un trionfo).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Quanto ai prezzi, forse faresti bene a dare un'occhiata ai listini dei produttori di processori e SoC in ambito embedded (avanzato; come quello in cui operano le realtà che hai citato): la parola "economico" non è esattamente ciò che ispirano.
Tutt'altro. A meno di non parlare di forniture militari, il costo dei componenti per l'embedded di consumo (compreso quello delle auto) è a prezzi stracciati. Ho esempi di fornitori che si offrono di forniture gratis pur di entrare in qualche modo nel mercato o nel settore e sperare di recuperare poi con pubblicità o con forniture future. In questo campo non puoi arrivare con micro che costa 1 euro in più della concorrenza e giustificarlo con "ma il mio va più veloce" se a me della velocità non me ne frega nulla (nell'embedded contano mille altre cose prima delle pure prestazioni).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Infine, se vai a vedere l'ultima roadmap sfornata dal consorzio POWER, relativamente al POWER 8, vedrai che loro stessi segnalano un trend in discesa quanto a diffusione, e citano Intel come una delle cause in merito.
Ermm..non mi pare che vi siano architetture Power8 nell'embedded. E come ho detto è sempre una questione di prezzi: se IBM ha il processore migliore ma lo vende a un prezzo superiore a quanto può Intel (per una semplice ragione di economia di scala) IBM non riuscirà mai a piazzare sul largo mercat l sue soluzioni: Intel sta a IBM esattamente come ARM sta a Intel. In mercati differenti, ma la sostanza è la stessa.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Infatti mi chiedo com'è che siano stati realizzati dei prodotti basati su Atom quando:
- non c'erano sovvenzioni di Intel;
- il PP utilizzato era vecchio (rispetto a quello impiegato per altri processori).

Il primo esempio che mi viene in mente: il (primo) Samsung Galaxy Tab da 10", realizzato anni fa.
E guarda caso mai più replicato....

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
iOS è un mondo e mercato blindato da Apple. Android è aperto, e proprio lì Intel si sta espandendo. Anzi, persino MIPS è entrato nel ramo ufficiale, e mi sembra che anche PowerPC ci giri, sebbene non sia ancora nel ramo ufficiale.
Intel non si espanderà mai nel mercato Android perché non ha la sufficiente dinamicità per adeguarsi alle moltitudini di necessità dei diversi costruttori e dispositivi. NOn offre nulla che ARM già non offra (anzi parlando di connessione, pure di meno). Ha speranza solo per quanto riguarda i dispositivi Widows based dove non c'è alternativa. Ma non mi sembrano stiano facendo questo sfacelo.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Come per Atom, Intel non ha utilizzato da subito l'ultimo PP per queste soluzioni. Soltanto con l'ultima incarnazione, Knights Corner, ha utilizzato (finalmente) i 22nm.
Ah, non ha importanza se non ha realizzato con l'ultimo PP, conta il fatto che con Knight Ferry a 45nm ha preso sonore bastonate da Fermi realizzato con un processo produttivo a 40nm (bulk e non come quello avanzato di Intel comunque).
A 22 nm è riuscito a pareggiare i conti, ma Kepler rimane più efficiente comunque. E si parla di numeri di computazione vera realizzati tramite i benchmark, non di numeri sulla carta.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Te lo spiego oggi: serve a utilizzare facilmente un'architettura molto ben conosciuta, e per la quale esistono tool di sviluppo che consentono di ottenere velocemente risultati e sfruttare la potenza di calcolo a disposizione.

Il fatto che Maxwell offrirà una certa potenza di calcolo teorica superiore non significa che automaticamente e immediatamente la si potrà utilizzare.

La potenza di calcolo grezza è soltanto un parametro, certamente molto importante, ma non è il solo di cui tenere conto; anche perché praticamente è molto difficile che si arrivi a questi numeri su carta.
Scusa ma non credo ci siamo intesi. I numeri sono quelli dei benchmark che si usano per decretare ufficialmente la potenza di calcolo reale di una architettura. Kepler bastona sonoramente la Xeon Phi di ultima generazione anche se è realizzato con un PP ben più scarso.
Maxell, che è realizzato sullo stesso PP di Kepler pota di suo già diverse ottimizzazioni all'architettura interna degli SMX. Spariscono le unità di calcolo DP separate, solo per dirne una, e lì di Watt se ne risparmiano non pochi, oltre che a permettere più unità di calcolo per superficie, cosa che Intel ha problemi realizzare viste le dimensioni non proprio contenute del suo chip per HPC. E non stiamo considerando le famose unità ARM aggiuntive che dovrebbero aumentare l'efficienza computazionale in generale, portando il valore reale dei GFlops più vicino a quello teorico (e quello teorico della GPU nvidia sta un bel pezzo sopra quello teorico Intel). Che vuol dire a parità di energia l'efficienza aumenta. Quindi forse con i 14nm Inte tornerà a pareggiare, giusto perché nvidia non ha a disposizione i 20nm questo giro. Il problema è che i 16nm sono previsti per l'ano prossimo per TMSC... quando è previsto il prossimo step per Intel? Nel 2018-19? A questi ritmi credo che sarà così.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Scusami, ma questa è un'assurdità. I numeri e le simulazioni servono a capire l'impatto che ha proprio l'elemento più problematico di x86: la sua eredità legacy.

Se per te un decoder che si mangia circa un milione di transistor ha lo stesso peso su un core da 3 milioni di transistor e su un altro che ne ha 30, 300, o addirittura 3 miliardi (pur se diviso per il numero di core/thread hardware a disposizione), beh, allora non posso che alzare le mani e arrendermi, perché non posso controbattere con una presa di posizione del tutto priva di senso.
[...]
La taglio breve così evitiamo di menare il can per l'aia... se Intel non ha problemi di
1.decoder che consuma poco in termini di spazio e energia
2.di registri che ne ha in abbondanza e usa con efficienza
3.di cache che ne ha in abbondanza e di velocità supersonica (che gli altri i sognano, persino AMD che non è l'ultima arrivata)
4.di banda verso la RAM dato che usa 2 canali (la maggiorn parte dei SoC ARM ne usano uno) e di densità di codice dato che CISC vs RISC
4. di unità di calcolo sia INT che FP
5.di branch prediction unit che sono decisamente più evolute di quelle ARM
cosa impedisce a Intel di fare un SoC x86 che sia quantomeno efficiente quanto un SoC ARM a pari PP?
Ora vorrei capire questa cosa. Forse ARM usa qualche pozione magica sui suoi die che li rende particolarmente migliori rispetto a quello che dovrebbero essere sulla carta? Non capisco: Intel è meglio di qui, no ha problemi di là, vince di qui, sborona di là, e poi immancabilmente presenta dei prodotti che non reggono il mercato. Cosa rende un SoC ARM migliore di una Intel dunque?

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Le sovvenzioni sono roba di pochi mesi fa, come già detto.
Che evidenzia come per 4 anni Intel sia andata in buca cercando di presentare il prodotto migliore sotto il punto di vista tecnologico. Se lo fosse stato avrebbero fatto la corsa per prendere il SoC Intel, no?
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Vedremo. Intanto sono già diversi i prodotti mobile che integrano un chip Intel, anche senza far girare Windows.
Ermm, a parte i telefoni sovvenzionati non mi viene nulla in mente... diversi quanti sono? Smartphone e tablet ARM hanno toccato quota un miliardo quest'anno.... giusto per avere un termine di paragone....

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Mi sembra che prodotti come SurfacePro abbiamo dimostrato come la situazione di x86 non sia esattamente come la stai dipingendo.

No, dai qui le faccine ci stanno tutte. Oltre 2 anni per vendere forse e dico forse 5 milioni di pezzi e tu dici che la situazione Surface non dimostra come sta la situazione? Spero per Intel che questo non fosse il suo target di quote di vendita, altrimenti altro che avere le fabbriche in idle... forse non hai ben compreso le dimensioni del mercato mobile... un miliardo diviso 5 milioni (e sono buono prendo anche i pezzi venduti l'anno scorso) = 2000 (ho dovuto prendere la calcolatrice per tanti sono gli zeri di differenza). Cioè Intel ha venduto 2000 mila volte in meno di ARM in un anno e questo sarebbe una situazione positiva? O non ho capito o qualcosa non va con la definizione di "situazione drammatica" per Intel.
No Windows no x86. In entrambi i sensi, cioè se non vendi Windows Intel non decolla ma se non hai bisogno di Windows Intel la puoi lasciare a terra senza rimpianti.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Forse perché Dropbox e Google Drive utilizzano Python per i loro client, che richiede non poca potenza di calcolo per avere certi risultati, e predilige nettamente architetture che offrono elevate prestazioni su singolo core/thread?
[... bla bla su numeri teorici]
Sì, puoi fare le stesse cose anche senza x86, ma ovviamente non hai gli stessi tempi di risposta, anche se hai 8 core a disposizione per macinare numeri...
Guarda non so cosa tu pretenda, o se anche a te piace guardare le barrette colorate senza dar loro un senso: io ho un tablet con un vetusto Tegra2. Dual core 1GHz, vecchia architettura Cortex-A9. E forse neanche quella meglio implementata. Quando uso il brower navigo senza problemi e quando mi collego a GoggleDrive riesco a usare il programma senza cader addormentato.
Con Intel risparmierei qualche millisecondo dei millisecondi in più che i core ARM impiegano per fare quei lavori? Ma sicuro. Mi cambia la vita? Nemmeno per sogno. Mi rende più produttivo. Nemmeno per idea, dato che il tablet non lo uso per essere produttivo. Riesco a leggere HWUpgrade? Certo. Per oltre 6 ore di filate con la batteria carica. E quindi tutto il discorso su cosa dovrebbe essere meglio e perché dove cade?
Come detto tante volte in nulla. Non conta presentarsi con una soluzione che costa di più anche se da di più. Ripeto, se Intel non avesse problemi con l'obesità dell'architettura x86 avrebbe già sfornato un SoC piccolo quanto quelli ARM. Invece si ritrova con SoC enormi che pareggiano l'efficienza (ma non i costi purtroppo per Intel) solo perché realizzati con n processo produttivo migliore.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Serve a capire se un'architettura è intrinsecamente scarsa oppure no, visto che la discussione s'è focalizzata sull'architettura di per sé.

Premesso che concordo sulla valutazione dell'intero ecosistema (perché è quello che, nella sua interezza, finisce in mano alla gente), la situazione non è esattamente quella che dipingi.

Se vuoi ottenere prestazioni mediamente migliori in tutti gli ambiti di utilizzo, Intel ha sicuramente le sue buone carte da giocare. ARM sta andando avanti a colpi di core, ma 9 donne non fanno un bambino in un mese. Ci sono ambiti in cui puoi sfruttare poco o per nulla i numerosi core a disposizione. Meglio un'architettura più bilanciata, che consente buone prestazioni anche quando viene usato un solo core da un particolare software.
Ma guarda, per quanto riguarda il multicore con me sfondi una porta aperta. Dopo 2 core, è difficile creare potenza di calcolo in maniera gratuita come vorrebbero far credere i benchmark a cui tutti i gonzi che credono di capire qualcosa di tecnologia abboccano come alborelle al grappolo di ami.
C'è gente che sceglia il proprio telefono guardando i bench, se la lineetta colorata è un millimetro dietro o avanti all'altro.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Fermo restando che, anche guardando alle prestazioni complessive, Intel non ha proprio nulla da invidiare a nessuno; tutt'altro.
Mai detto il contrario. Non è infatti sulle prestazioni che stiamo discutendo, né è sulle prestazioni che la gran parte del mercato guarda. Come per un qualsiasi elettrodomestico, alla gente normale basta che il dispositivo funziona per quello che è pensato per fare. Ho visto gente scegliere uno schermo LCD invece di un plasma Kuro lì affiancato perché sull'LCD i colori erano migliori (cioè più saturi da sbordare). Pensa te. Sarebbe utile andare là a spiegargli il perché e il percome il pannello al plasma (e il Kuro in particolare) fosse meglio del pannello LCD? E' la filosofia del basta giusto quel che serve. Infatti la Samsung vende pannelli LCD coma il pane. La Pioneer ha chiuso.
Ma non se ne può dare la colpa a Samsung. Se la gente si accontenta, e spesso è anche giusto farlo (in quel caso è stato stupido dato che i due televisori costavano quasi uguale, e in assoluto non poco) a che serve presentarsi con qualcosa che non è richiesto? E non si può dire che non sia così dopo 4 anni di inutili tentativi.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
nVidia e AMD sfornano GPU, per cui hanno bisogno di un PP adeguato alle loro particolari esigenze. E dunque mi pare normale che la fonderia da cui si servono gliene metta a disposizione uno apposito.

A Intel, invece, serve altro, per cui non ha avuto questa necessità.

Come dicevo sopra, ha anche altre carte che si può giocare.
Ancora non ci siamo capiti. TMSC non ha messo a disposizione di nvidia e AMD un bel nulla di nuovo. Li lascerà ancora con i 28nm per almeno 6 mesi, il che farà 30 mesi con lo stesso processo produttivo. I nuovi 20nm, che suppongo non le siano costati poco, sono riservati esclusivamente per la produzione di SoC ARM. Stiamo dicendo che TMSC ha fatto un intero prcesso produttivo (con una sola variante) che a quanto pare sarà completamente ammortizzata dalla vendita dei SoC ARM che prourrà (forse compresi o solo quelli Apple?).
Come se Intel dicesse, ho realizzato i 14nm solo ed esclusivamente per gli Atom, il resto continuerò a produrlo a 22nm fino all'arrivo dei 10nm. Sarebbe un segnale di salute finanziaria e di mercato mostruosa. Invece fatto da TMSC è vista malamente perché lascia noi appassionati senza nuove GPU per altri 6 mesi come minimo.

Un giorno mi dirai quali sono le carte alternative a disposizione di Intel al di fuori delle sovvenzioni o della corruzione. Tecnicamente io non vedo alcuna possibilità di farcela contro l'armata ARM. Poi magari Intel l'anno prossimo ci stupisce tutti ed esce con qualcosa di veramente innovativo ed efficace (termine che contiene tutto quello che le serve per sfondare). Intanto devo aspettare ancora 12 mesi (o forse 18) prima di vedere qualcosa di nuovo da parte loro, mentre da questa parte c'è un fermento che metà basta (la curiosità per il K1 di nvidia e per i futuri SoC per server da parte un po' di tutti è enorme).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Le sovvenzioni sono arrivate adesso, e servono a darle un'accelerata per far diffondere le sue architetture, in modo da guadagnare quote da un mercato in cui ha pensato troppo tardi di entrare.

Ricordo, in merito, il recente mea culpa di Otellini, che chiuse le porte ad Apple e al suo iPhone...
Ma quale "averci pensato troppo". Sono stati presi con le braghe calate, come si dice. Non se lo aspettavano proprio. L'Atom originale, quello dei netbook, era il meglio che Inetl offriva per il basso consumo. Rendiamoci conto come questa compagnia ha ritardato l'evoluzione informatica per anni dopo che ha eliminato la concorrenza con metodi più o meno legali! Non possiamo che ringraziare ARM per non aver mollato (e sopravvissuto proprio nel mondo embedded che fortunatamente non necessita né di Intel né di Windows) e devo dirlo, di Apple che l'ha sdoganata per davvero. Se non fosse stato per questa combinazione avremmo ancora un Atom fatto leggermente meglio del l'originale giusto per contrastare l'altra schifezza prodotta da AMD e un embedded basato ancora su terminali lentissimi per evitare troppi consumi.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non mi sfugge affatto, come non mi sfugge che un chip ARM te lo puoi realizzare in casa anche e soprattutto grazie al fatto che acquisti la licenza e i progetti di ARM, quindi non parti assolutamente da zero.

Non evaporerà e, anzi, arriveranno sempre più core.

Inoltre i GFLOPS servono perché la gente vuole sempre più, e non si limita a fare la telefonata o mandare l'SMS. Infatti i SoC mobili hanno superato la soglia del miliardo di transistor, mettendo a disposizione CPU con molti core e GPU con molti stream processor; se non ci fosse stata richiesta non si sarebbero viste queste soluzioni, e puoi metterci la mano sul fuoco che il trend è destinato a crescere e certamente non a diminuire. Anche qui, non è un caso che gli smartphone abbiano superano i feature-phone in termini di vendite.
Diciamo per prima cosa che gli smartphone hanno superato i feature phone perché il divario di prezzo è ormai zero e i feature phone come ecosistema sono morti da tempo. O fai solo telefonate e SMS e vai di cellulare classico (che ancora vende e resiste) o se vuoi qualcosa di più non puoi fare a meno di un sistema che usi Internet per tutto quello che può, dal browser passando per Whatsapp o simlia, per Skype, servizi Google, Dropbox senza tralasciare i giochini vari e i servizi dei vari store. I feature phone oggi sono come comprare una Panda con 3 ruote al prezzo di una Golf full accessoriata. E' logico che non hanno più alcun senso.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Non vedo poi, perché dovrebbe abbandonare la battaglia proprio adesso che con gli ultimi modelli di Atom l'hanno resa competitiva con ARM anche in termini di consumo. Sarebbe, al contrario, un gesto folle.
Eh, non è che questo inseguimento le costi zero, sopratuttuo per i costi di R&D che non vengono di certo coperti dal quantitativo esiguo di pezzi venduti. Per dirti come è cambiato lo scenario, prima del boom di ARM Intel stava pensando di farsi fare gli Atom da una fonderia terza. Ora è il contrario, sta cercando qualcuno che venga a occuparle i macchinari (ma che poi non le faccia concorrenza diretta con una architettura migliore realizzata sullo stesso processo produttivo, sarebbe un suicidio).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Beh, intanto non è detto che una nuova architettura debba necessariamente perdere la compatibilità con x86.
Eh, no, facciamola complessa e obesa anche questa per mantenere la retrocompatibilità in un mercato che non ne ha bisogno.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Poi anche gli altri che hai citato hanno dovuto effettuare cambiamenti radicali e non retrocompatibili; mi riferisco in particolare ad ARM, di cui ho parlato anche sopra.
Scusa, ma sembri non capire l'importanza della cosa: vuoi mettere ARM che perde la retrocompatibilità alla versione 2 della sua ISA nel lontano 1985 rispetto ad Intel che la perde nel 2014 quando tutto il mondo informatico si appoggia su un sistema operativo che gira esclusivamente su quella ISA?
Se lo farà è perché nel mondo mobile della retrocompatibilità con Windows classico non gliene può fregare nulla a nessuno. Tanto MS sui suoi Surface ci mette gli ULV.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Larrabee è stata progettata con la consulenza di mostri sacri nel campo della computer grafica. Gente del calibro di Abrash e Sweeney. L'obiettivo era quello di entrare nel mondo delle GPU, ma quella proposta era una soluzione troppo general purpose, pur con tutte le migliorie introdotte, incluse unità specializzate in alcuni ambiti.
[...]
Per questo motivo Larrabee è stata riadattata e ottimizzata per competere nel settore HPC, e mi sembra che qualche risultato lo stia raggiungendo, pur essendo arrivata da poco. In futuro sono previste novità che renderanno Xeon Phi ancora più interessante e competitiva.
Praticamente mi hai descritto la vita dello sviluppo di Larrabee, ma non come la intendevo io. A parte la pazzia di voler sostituire unità dedicate con unità general purpose (sempre per l'idea malsana che ha pervaso Intel sin dalla sua genesi, cioè che il general purpose fosse la panacea di tutti i mali), quello che è rimasto in mano a Intel è un cluster di unità x86 che hanno perso la loro natura di x86 per svolgere compiti prettamente da coprocessore come fossero delle FPU complesse rispetto alla CPU princiale a cui sono collegate.
Ora, 'sta storia della architettura stra conosciuta che permette migliore ottimizzazione e balle varie, per favore non svegliamola ogni volta che si parla di x86. Usati in quella maniera non sono né meglio né peggio di una schiera di unità di calcolo NEON, FPU generiche, unità vettoriali di una GPU, SPE cell o di core ARM. Infatti nessuno scrive per tale scheda in assembler per tutte e 50 le unità di calcolo separate, ma si usano librerie pre costituite o comunque API di comunicazione ià belle che pronte.
Chi si beve la storia che l'uso di vetusti core x86 con una mega unità Floating Point (che è quella che fa la differenza, non il restante 99% dell'ISA x86 che non serve a una pippa su questo marchingegno riciclato) siano la soluzione migliore possibile?
Negli anni abbiamo visto architetture comportarsi molto meglio degli x86 nel campo della computazione parallela e ora ci dobbiamo berci la fiaba che solo il fatto che i core x86 sono ben conosciuti (anche se stravolti in quella funzione di coprocessore) garantiscono una capacità di calcolo altrimenti impossibile? Dai su, i risultati parlano da soli, per fortuna. Sì certo, se scendiamo ancora di PP qualcosa miglioriamo, ma davvero, la speranza è che qualcuno crei una scheda acceleratrice general purpose che cancelli questa oscenità da 300W e mezzo km di mm^2 di silicio (se ci mettevano un Itanium magari ottenevano un risultato migliore peraltro riciclando ancora qualcosa che non ha funzionato come previsto).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Che abbia venduto poco IN AMBITO MOBILE ci può stare, ma... i netbook ti dicono niente? E poi cos'avrebbe di orribile?
I netbook sono stata la mossa commerciale più furba della storia che ha accalappiato un sacco di gonzi (come, erano così utili e fondamentali che oggi non esistono nemmeno più...). Fortuna che i tablet sono arrivati in tempo prima che trovassero anche quelle porte chiuse da abitudini e forma mentis completamente stravolte dal marketing Intel.
Cosa ha di orribile l'Atom? Dimmi una sola cosa che ha di positivo. E pensare che era il fiore all'occhiello di Intel per il basso consumo (con quel magnifico chipset che consumava quasi il doppio della CPU stessa). Per quanto mi stia sulle balle non smetterò mai di ringraziare Apple per aver dato più che una scossa al mercato e allo scempio portato dal monopolio Intel. Tu non vorresti che lo definissi tale, ma tale è a tutti gli effetti.

Miii s'è fatto tardissimo.
Non ho tempo per rileggere tutto. Spero di non aver scritto troppe castronerie.
Buona notte
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 18-02-2014, 00:53   #84
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3877
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Per amore della precisione va detto che un 386 con una VGA era in grado di eseguire senza problemi effetti di transizione che un software come Scala metteva a disposizione, e anche di più complessi.

Il problema della VGA non era tanto nella mancanza di sincronismo al pennello elettronico (era possibile riconoscere l'inizio sia delle fasi di horizontal e vertical blanking; inoltre nello standard VGA/MCGA di IBM era persino prevista le possibilità di generare un interrupt all'inizio del vertical blanking, anche se poi tanti produttori di cloni non hanno implementato quest'utilissima funzionalità nelle loro schede video), quanto della mancanza del supporto ai genlock, ossia la possibilità di "marcare" un particolare colore dell'immagine generata come "buco" da poter "forare" per mostrare la grafica di una sorgente esterna.

Non servivano i coprocessori dell'Amiga allo scopo, quanto la funzionalità di ZD (Zero Detect) del colore della palette, che il chip video (Denise) metteva a disposizione.

Per il resto sono abbastanza d'accordo, anche se non sono dello stesso avviso per quanto riguarda il Cell.
Ma direi pure anche no alla questione 386 + VGA!
Allora come la mettiamo che non c'è stato gioco fino all'arrivo delle più potenti VGA anni e anni dopo che si poteva permettere la fluidità dello scrolling che Amiga possedeva? Forse tu Scala l'hai visto di sfuggita in qualche rivista. Facciamo che io estraggo il mio A1200 che ho ancora nell'armadio e a te permetto di estrarre anche un Pentium IV con una VGA dell'epoca e vediamo se scrolli a 50Hz fluidi senza perdere un colpo. A quell'epoca le VGA facevano fatica a spostare il cursore del mouse (che non era uno sprite HW), figuriamoci uno schermo intero... quando su Amiga era 1 solo, ma questa è un'altra storia.
Non facciamo revisionismo storico da questo punto di vista che divento una bestia.
Per il Genlock altra imprecisione: il genlock più famoso per Amiga è stato il VideoToaster e non usava certo i chip custom per fare il suo lavoro.
Per quanto riguarda il rilevamento del pennello... ehheheeh... guarda cosa può fare uno sputacchino di un chip con 3 istruzioni (tre, per davvero) che ha messo in crisi emulatori centinaia di volte più potenti della CPU da 7MHz dell'Amiga.
Sempre per ribadire che ad-hoc non è sempre equivalente a unità di calcolo complesso e poco flessibili, quindi mezze sprecate e avere potenza bruta in gran quantità non è sempre sufficiente per pareggiare anche il più piccolo HW custom pensato a dovere.

Sempre più tardi.. maledetto
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 18-02-2014, 06:16   #85
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
@Crapa di Legno e cdimauro

Anche se crapa è un po di parte sono molto interessanti i vostri interventi, ma ve lo chiedo per favore un po di sintesi!!!
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
Old 18-02-2014, 06:32   #86
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ma direi pure anche no alla questione 386 + VGA!
Allora come la mettiamo che non c'è stato gioco fino all'arrivo delle più potenti VGA anni e anni dopo che si poteva permettere la fluidità dello scrolling che Amiga possedeva?
Perché cambi discorso? Anche nell'altro messaggio, quando si parlava dell'architettura x86 e il suo aspetto legacy, e hai tirato in ballo un intero SoC (quando, peraltro, avevo già discusso anche di questo nella parte che hai tagliato, e tu stesso hai disquisito in merito). Ma di questo ne parlerò quando avrò tempo per rispondere.

Atteniamoci, dunque, ai fatti (tecnici) di cui si è parlato.

Comunque non ho difficoltà a rispondere anche a questo. Riguardo alla fluidità dello scrolling che hai citato non serve né il 386 né una VGA, per giunta degli ultimi anni: sono sufficienti un 286 e una EGA. Presta bene attenzione a quello che è stato scritto: parliamo di "fluidità dello scrolling". Perché già con la EGA il chip video era in grado di scrollare (in hardware, ovviamente) lo schermo (visibile).

C'erano, infatti, registri dedicati che consentivano di impostare la posizione dello schermo (e del primo pixel visibile) all'interno della memoria video, che ovviamente era più grande dello schermo visibile. Infatti le schede EGA erano generalmente dotate di 256KB di memoria, anche se il classico schermo 640x350 a 16 colori visualizzato (ma questa era la risoluzione massima) ne richiedeva soltanto 110KB. Questo vuol dire che si poteva costruire uno schermo virtuale più grande, da fare poi scrollare comodamente (ribadisco: in hardware) "semplicemente" (non era semplice come su Amiga, eh! C'erano più registri da settare) impostando l'offset all'interno della memoria video e il pixel da cui partire (la quantità di scrolling iniziale). Ovviamente avendo l'accortezza di impostare la nuova posizione durante il vertical blanking, e dunque sfruttando l'interrupt apposito per le schede video che lo mettevano a disposizione, oppure in polling con la CPU.

Perché basterebbe un 286? Perché per realizzare quanto detto è sufficiente aggiornare soltanto le parti dello schermo che sono cambiate, e dunque non sei costretto a ridisegnare tutto. Cosa che, tra l'altro, facevi anche con l'Amiga, che non ha mai avuto abbastanza potenza di calcolo per ridisegnare tutta la grafica a ogni frame.

La VGA, essendo retrocompatibile con la EGA, funzionava allo stesso modo, anche se ovviamente metteva a disposizione un hardware migliore in termini di tavolozza dei colori (262144), numero di colori visualizzabili contemporaneamente (256), e risoluzione massima (640x480; ma a 16 colori).

Dunque TECNICAMENTE avere lo scrolling fluidissimo era perfettamente fattibile, anche su un hardware ben più scarso (a proposito: la EGA, e pure la VGA ovviamente, aveva i bitplane; come l'Amiga. La VGA ha poi aggiunto la modalità chunky / packed indexed a 8 bit).

Perché non è stato fatto nei giochi? Per una questione di opportunità e/o di scarsa conoscenza dell'hardware. Infatti il mercato dei giochi è stato appannaggio dell'Amiga fino ai primi anni '90, e per PC arrivavano per lo più conversioni raffazzonate. E c'era scarsa conoscenza dell'hardware, perché la documentazione tecnica su come funzionavano in dettaglio le schede video non era molto diffusa (leggi: paragonato ad Amiga, per la quale Commodore ha pubblicato il famoso Hardware Manual) ed era abbastanza complessa (niente a che vedere con la semplicità dell'Amiga). Non a caso è stato soltanto nei primi anni '90, dopo ANNi dalla commercializzazione della prima VGA, che Michael Abrash ha tirato fuori il famoso "ModeX", che ha consentito di sfruttare tutti i 256KB della memoria video con la modalità a 256 colori, oltre a permettere anche risoluzioni più elevate (fino a 360x480).

OK, mi sono dilungato anche troppo. Comunque se vuoi approfondire l'argomento grazie a internet trovi tonnellate di documentazione tecnica e anche esempi su come sfruttare per benino l'hardware del PC, già a partire con la EGA.
Quote:
Forse tu Scala l'hai visto di sfuggita in qualche rivista.
L'ho usato e conservo anche i floppy (copiati, come si usava all'epoca, purtroppo) in garage. Ma non è questo il punto: per ciò che stiamo discutendo si può anche fare a meno di provare personalmente Scala o qualunque altro software per Amiga.
Quote:
Facciamo che io estraggo il mio A1200 che ho ancora nell'armadio e a te permetto di estrarre anche un Pentium IV con una VGA dell'epoca e vediamo se scrolli a 50Hz fluidi senza perdere un colpo. A quell'epoca le VGA facevano fatica a spostare il cursore del mouse (che non era uno sprite HW), figuriamoci uno schermo intero... quando su Amiga era 1 solo, ma questa è un'altra storia.
Non è così, e vedi sopra. Tra l'altro UAE girava, malamente nelle prive versioni ovviamente, già sui 486, ed emulava un intero Amiga, scrolling incluso.
Quote:
Non facciamo revisionismo storico da questo punto di vista che divento una bestia.
Con me non corri questo pericolo. E poi puoi sempre verificare tutto quello che ho scritto.
Quote:
Per il Genlock altra imprecisione: il genlock più famoso per Amiga è stato il VideoToaster e non usava certo i chip custom per fare il suo lavoro.
Quale sarebbe l'imprecisione? Ti ho anche scritto come funzionava il genlock. Se prendi lo schema di un Amiga (quello del 2000 era incluso nel manuale, se non ricordo male, ma sono passati 25 anni ormai e potrei non ricordare bene) trovi perfino il pin ZD che esce da Denise e arriva alla porta RGB e nello slot video... Se non hai il manuale, puoi sfogliare "Amiga System Programmer's Guide", e troverai anche ampie spiegazioni su come funzionava la macchina.

Il VideoToaster senza il lavoro fatto da Denise poteva sognarsi di fare quel lavoro. Per lo meno a basso costo, visto che aveva già bello e pronto ciò che gli serviva (capire quando "bucare" lo schermo dell'Amiga, e sovrapporgli quello da lui generato).

Comunque sono curioso di capire cos'è che avrei detto di sbagliato.
Quote:
Per quanto riguarda il rilevamento del pennello... ehheheeh... guarda cosa può fare uno sputacchino di un chip con 3 istruzioni (tre, per davvero) che ha messo in crisi emulatori centinaia di volte più potenti della CPU da 7MHz dell'Amiga.
Lo conosco molto bene. Col Copper ci suonavo pure la musica nei miei giochi.

Comunque non è il Copper che ha messo in crisi gli emulatori, ma l'emulazione cycle-exact. Il Copper viene emulato bene anche da un emulatore non molto accurato; è tutto il resto, se vuoi ottenere lo stesso risultato, che è pesante da emulare.
Quote:
Sempre per ribadire che ad-hoc non è sempre equivalente a unità di calcolo complesso e poco flessibili, quindi mezze sprecate e avere potenza bruta in gran quantità non è sempre sufficiente per pareggiare anche il più piccolo HW custom pensato a dovere.
Sono d'accordo. E infatti è anche il motivo per cui i SoC ARM consumano poco. Ma di questo, come già detto, ne parlerò quando avrò tempo per rispondere all'altro messaggio. Oggi ho giornata pienissima; vedo se posso arrivarci domani.
Quote:
Sempre più tardi.. maledetto
Beh, sempre meglio che leggere i commenti di gente qualunque che nei forum diventano premi Turing. In Italia ci sono 60 milioni di allenatori della nazionale; purtroppo.

Almeno ravviviamo un po' il forum con qualcosa di più interessante.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 18-02-2014, 22:25   #87
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
@Crapa di Legno e cdimauro

Anche se crapa è un po di parte sono molto interessanti i vostri interventi, ma ve lo chiedo per favore un po di sintesi!!!
Il problema principale è che la discussione ha innescato delle sotto-discussioni collegate che meritano il loro spazio. Comunque vedrò cosa potrò fare per non scrivere un altro papiro, quando avrò il tempo di rispondere.

Per il momento... buona notte.

P.S. E' difficile trovare una persona che non sia di parte, o comunque abbia delle simpatie. Con ciò non voglio dire che in questo modo non sia possibile discutere: l'importante è rimanere il più possibile all'interno dei fatti o di argomentazioni tecniche; poi gli altri utenti si faranno una propria idea, com'è giusto che sia.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 22-02-2014, 17:53   #88
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Rieccomi. Finalmente ho avuto anch'io un po' di tempo per rispondere.
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Mii. sta diventando un romanzo... scusa se non rispondo a tutto, ma è tardi e la mente un po' offuscata.

Che affermazione lapidaria?
Questa: "Sì, ma le altre fonderie non vivono esclusivamente per il vantaggio che hanno rispetto alla concorrenza."

Come fai ad affermare che Intel vive esclusivamente col vantaggio delle sue fonderie?
Quote:
Metti di non avere alcun progetto che possa realizzare vendite come quelle di ARM. Che le fai a fare le nuove fabbriche con nuovi processi produttivi se prima non hai ammortizzato quelle precedenti? Che al ritmo di vendita senza ARM vuol dire una ogni 5 o 6 anni.
Questo è un altro discorso rispetto alla frase che ti avevo quotato.

Comunque chi ti dice che non abbia già ammortizzato i costi degli aggiornamenti delle fabbriche e/o della costruzione delle ultime?
Quote:
D'altronde, a TSMC non gliene frega nulla che l'ultimo SoC che sforna sia meglio o peggio dell'ultima CPU di Intel. Lei vende comunqe un fracco. E' Intel che si preoccupa del fatt che l'ultimo SoC ARM da la paga al suo ultimo SoC Atom o che la sua Xeon Phi prima versione fa figura del menga contro un'architettura a pari PP (quella nvidia, e su questo punto approfondisco dopo).
Scusami, dov'è che l'Atom le prenderebbe?

Riguardo a Xeon Phi, immagino ti riferisca a Knights Ferry, che è stato una sorta di prototipo, ed è finito soltanto in alcuni sistemi. Comunque dove starebbe la figuraccia?
Ecco qui http://archive.hpcwire.com/hpcwire/2...sus_fermi.html un bell'articolo (tecnico) che confronta Knights Ferry proprio con Fermi. A me pare che non esca così male; tutt'altro. Mi spieghi qual era il problema di questo prodotto?
Quote:
Questo non vuol dire che non produca con l'ultimo PP quello che ritiene avere dei problemi di competizione.
Chi l'ha mai negato questo? Sei tu che hai affermato che Intel campa col solo vantaggio del più moderno processo produttivo.
Quote:
Come detto Quark lo può fare a 1 nm e sempre vincolato nelle nicchie dell'embedded rimane. L'Itanium è morto già di per sé e lo potrebbe fare anche a 1um se non le servisse un metro quadro di silicio.
Non è infatti un caso che l'Atom è passato dall'essere realizzato con la penultima versione di PP alla prima.
Appunto, ma mica produce sempre con l'ultimo processo produttivo. Fino a poco tempo fa questo era esclusivo appannaggio dei suoi prodotti desktop; di recente lo sta usando anche per Atom e Xeon Phi, perché si sta espandendo in questo mercato e ritiene di averne bisogno.
Quote:
Non no è normale, perché quando decidi quante fabbriche aggiornare (che costano miliardi, non noccioline) prevedi con accuratezza (per qunato puoio, non certo tirando i dadi) un certo numero di vendita. Inutile aggiornare 2 fabbriche se sai che una fabbrica aggiornata produce il doppio della precedente ma vai a vendere lo stesso numero di chip. Con i 22 nm Intel ha sforato il previsto, cercando partner terzi per riempire le fabbriche semi vuote, con i 14 ha sforato completamente riuscendo ad evitare di aprirne inutilmente una intera. No, non lo considero normale fare un progetto che prevede il doppio della produzione e poi arrivare alla metà. E no, non è nemmeno la crisi in generale. E' dato alla crisi del PC in particolare, causata da ARM che al contrario vende sempre di più e permette a TSMC di aprire fabbriche apposite snobbando altri mercati.
Permettimi: la realizzazione di una fabbrica viene pianificata qualcosa come 3 anni prima, se non di più. Se, arrivato al completamento, le condizioni sono cambiate, tu che fai? Continui ciecamente lo stesso a fare quello che avevi pensato molto tempo fa, oppure cambi strategia?

Quando le condizioni diventeranno favorevoli, vedrai la nuova fab verrà impiegata. Al momento non ha senso buttare soldi per mantenere qualcosa che non produce utili, ma che, al contrario, genererebbe perdite.
Quote:
Anche con i 22nm non ha saturato la sua capacità produttiva. Il problema sinceramente non è che abbia sbagliato o ci abbia rimesso dei soldi per una fabbrica che non le serve, ma quanto le serve in termini di tempo per ammortizzare i nuovi processi produttivi se invece che vendere di più vende a ogni generazione la metà del previsto. Non bisogna stupirsi se i 14nm sono in ritardo di oltre 9 mesi (e i 22 lo furono di altrettanto se non ricordo male). Intel è un po' tra l'incudine e il martello. Mentre vorrebbe tirare avanti un po' l'arrivo del nuovo PP è però costretta a non fare troppo ritardo perché altrimenti perde in competitività.
Infatti il nocciolo della questione non è quello che si debba per forza di cose saturare la capacità produttive. Si può benissimo non raggiungere quest'obiettivo, ma ugualmente produrre utili e ammortizzare i costi di costruzione e/o aggiornamento delle fabbriche.

Coi 22nm Intel ha trovato il modo di renderlo proficuo, aprendo a produttori terzi (che non sono in competizione con lei). Coi 14nm la situazione è diversa, e i tempi non sono maturi per impiegare la nuova fabbrica. Sic. et simpliciter.
Quote:
Quello che intenevo con il fatto che le altre fonderie non sono costrette a rincorrere un PP a tutti i costi. Al massimo ad incazzarsi saranno i clienti, ma alla fine si devono accontentare di quel che la fabbrica propone loro non essendoci alternative.
Mi pare ovvio. Non lo fa nemmeno Intel che, come già detto, non utilizza l'ultimo processo produttivo per tutti i prodotti che sforna...
Quote:
Mi sa che hai preso un p' troppo alla lettera la mia affermazione. Rimane comunque il fatto che rispetto a quello che offriva Intel al tempo, i processori ARM erano delle calcolatrici poco più che evolute.
Se mi ripeti all'incirca la stessa cosa nella frase successiva, devo per forza prendere alla lettera quello che dici.

No, non è affatto così. La realtà è ben diversa.

Ti ho fatto già diversi esempi, alcuni pure ben noti. Vogliamo parlare dei prodotti Nintendo basati su ARM, tanto per farne qualcun altro? Il Game Boy Advance è del 2001, tanto per tirare in ballo un altro nome di spessore. Ma altri sull'utilizzo di ARM ne puoi trovare a iosa con una banale ricerca.

ARM ha una lunga tradizione di prodotti che impiegano i suoi processori, e per per dirla tutta quella delle calcolatrici mi mancava. Nel senso che è talmente poco nota che non ne ho mai sentito parlare; al contrario dei tanti altri impieghi.
Quote:
Diverso il discorso dopo l'arrivo di Apple e l'iPhone nel 2008. Da lì l'accelerazione è stata sorprendente anche per Intel (vedi discorso Atom del 2008 fatto con PP vetusto già al tempo e chipset ancora peggiore che non fa certo pensare che Intel credesse in un arrembaggio di ARM in così breve tempo).
Mi spiace, ma ancora una volta non è così. ARM aveva già da tempo intrapreso quella che è una naturale evoluzione per i suoi prodotti, cioè offrire maggiori prestazioni, perché era quello che chiedeva il mercato e di conseguenza i suoi partner. Non ci voleva certo Apple per tutto questo.

Infatti il Cortex-A8 è stato presentato nel 2004, quando l'iPhone di Apple "non era nemmeno nella mente di dio", per citare un detto popolano delle mie parti.

L'A9, che è stato un enorme balzo avanti ed è la base delle successive micro-architetture votate alle prestazioni, è del 2009, e non arriva di certo a causa dell'iPhone, visto che era in programma già da tempo (progetti di questa complessità richiedono un bel po' di anni).

Per maggiori informazioni: http://www.arm.com/about/company-profile/milestones.php
Quote:
Mica ho detto che Intel aveva in mano le redini di ARM, ma come ben sai di ARM puoi comprare l'ISA e implementartela come meglio credi ala Qualcomm.
INtel sicuramente avrebbe potuto contribuire non poco a realizzare il meglio dell'architettura ARM se avesse voluto. Certo che i cervelli non gli mancano (con tutto il rispetto per Qualcomm, ma Intel è un'altra categoria).
Giustamente, dal punto di vista di promozione della propria IP, abbandonare ARM è stata la mossa più giusta. Peccato che poi la propria IP si sia dimostrata insufficiente a tenere testa all'evoluzione che ARM ha fatto anche senza l'aiuto implementativo di Intel (ora però c'è Apple che sforna implementazioni di nota).
Non mi risulta che Qualcomm condivida la sua architettura e le IP sulle quale ha costruito la sua fortuna con le altre aziende che utilizzano ARM né tanto meno con ARM Inc.. Idem per Apple.

Continuo a non spiegarmi, quindi, quale apporto avrebbe potuto dare Intel ad ARM con le sue IP. Potresti farmi qualche esempio concreto?

Per il resto, e come già detto, negli ultimi tempi riesce a tenere testa ad ARM.
Quote:
No cioè, aspetta, stiamo parlando di embedded fatto con le CPU moderne o quelle dell'anteguerra? No perché non è certo con le licenze egli 8085 e simili che Intel tirerà avanti il carretto.
Era un discorso generale, come generale era la tua frase da cui è scaturito il tutto: "Intel è sempre stata nel mercato embedded. Con scarsi risultati."

E' chiaro il core business di Intel è sempre stata la sua famiglia IA32, ma anche con 8085 s'è ritagliata il suo spazio nel mercato embedded. Un po' di anni fa, durante l'esplosione dei lettori DVD e in particolare di quelli che riproducevano DivX, potevi trovare l'8085 (in versione microcontroller ovviamente) impiegato allo scopo.
Quote:
Senza contare che nell'embedded semi evoluto (che non sono gli 8 bit ma nemmeno sistemi ad alto carico computazionale) è sempre ARM a farla da padrona, visto che è inserita in qualche miliardo di dispositivi ogni anno (se Intel prendesse posto con il suo QUark di un centesimo di quel mercato sarebbe un trionfo).
Veramente il mercato è dominato da PowerPC, MIPS, e AVR. ARM ha la sua sostanziosa fetta di mercato, senz'altro, e continua a crescere (infatti PowerPC è in discesa e i produttori di processori embedded hanno già abbracciato ARM).
Quote:
Tutt'altro. A meno di non parlare di forniture militari, il costo dei componenti per l'embedded di consumo (compreso quello delle auto) è a prezzi stracciati. Ho esempi di fornitori che si offrono di forniture gratis pur di entrare in qualche modo nel mercato o nel settore e sperare di recuperare poi con pubblicità o con forniture future. In questo campo non puoi arrivare con micro che costa 1 euro in più della concorrenza e giustificarlo con "ma il mio va più veloce" se a me della velocità non me ne frega nulla (nell'embedded contano mille altre cose prima delle pure prestazioni).
Il settore embedded è molto vasto, come sicuramente sai, ma quando hai bisogno anche di prestazioni i prodotti non li trovi più a prezzi stracciati. Dai un'occhiata a Freescale, che è leader mondiale in questo campo, e vedi un po' quanto si fa pagare i suoi SoC PowerPC "non banali".
Quote:
Ermm..non mi pare che vi siano architetture Power8 nell'embedded. E come ho detto è sempre una questione di prezzi: se IBM ha il processore migliore ma lo vende a un prezzo superiore a quanto può Intel (per una semplice ragione di economia di scala) IBM non riuscirà mai a piazzare sul largo mercat l sue soluzioni: Intel sta a IBM esattamente come ARM sta a Intel. In mercati differenti, ma la sostanza è la stessa.
Scusami, la nuova roadmap del consorzio Power è stata presentata lo stesso giorno dell'annuncio del POWER 8, per cui m'è scappato quest'ultimo nel discorso che stavamo facendo. Trovi entrambe le notizie nei rispettivi link:
https://www.power.org/documentation/...p-update-2013/
https://www.power.org/documentation/...oadmap-power8/
E' il primo che parla della perdita di quote di mercato dell'architettura PowerPC (POWER ormai da tempo ha un'ISA PowerPC-compliant, e i due termini sono divenuti intercambiabili) a favore di Intel e ARM.

Ovviamente nella barca dei PowerPC non c'è solo IBM, ma tanti altri produttori, che non vendono i loro chip a peso d'oro.
Quote:
E guarda caso mai più replicato....
Da Samsung per quel prodotto sì, ma non è vero in generale. Ne parlo meglio dopo.
Quote:
Intel non si espanderà mai nel mercato Android perché non ha la sufficiente dinamicità per adeguarsi alle moltitudini di necessità dei diversi costruttori e dispositivi. NOn offre nulla che ARM già non offra (anzi parlando di connessione, pure di meno). Ha speranza solo per quanto riguarda i dispositivi Widows based dove non c'è alternativa. Ma non mi sembrano stiano facendo questo sfacelo.
Invece è proprio quello sta facendo: si espandendo anche nel mercato Android, e punta molto proprio su questo campo, tant'è che a breve arriverà anche la versione a 64-bit di questa piattaforma mobile. Ma anche di questo ne parlo meglio dopo.
Quote:
Ah, non ha importanza se non ha realizzato con l'ultimo PP, conta il fatto che con Knight Ferry a 45nm ha preso sonore bastonate da Fermi realizzato con un processo produttivo a 40nm (bulk e non come quello avanzato di Intel comunque).
Mi faresti vedere dov'è che avrebbe preso bastonate? Intanto guardati quel link che ho postato prima, che dipinge una realtà ben diversa da quella che hai presentato.
Quote:
A 22 nm è riuscito a pareggiare i conti, ma Kepler rimane più efficiente comunque. E si parla di numeri di computazione vera realizzati tramite i benchmark, non di numeri sulla carta.
E vediamoli pure questi benchmark. Ne hai qualcuno sotto mano?

Nel frattempo qualcosa te la propongo io: http://www.xbitlabs.com/news/other/d...eat_Shape.html

Mi permetto di riportare un pezzo della notizia:

"Intel's Knights Corner accelerator has over 50 cores and delivers 1TFLOPS of double precision floating point performance, as measured by the double-precision, general matrix-matrix multiplication benchmark (DGEMM). Currently the most powerful special purpose highly-parallel accelerator is Nvidia Tesla 2090, which boasts with 665GFLOPS (0.665TFLOPS) of peak performance, which is considerably below peak performance of Intel's KNC."

Sì, si vedono proprio le sonore bastonate che prende Xeon Phi...
Quote:
Scusa ma non credo ci siamo intesi. I numeri sono quelli dei benchmark che si usano per decretare ufficialmente la potenza di calcolo reale di una architettura. Kepler bastona sonoramente la Xeon Phi di ultima generazione anche se è realizzato con un PP ben più scarso.
Premesso che aspetto di vedere questi benchmark, mi sfugge quale sarebbe questa metrica "ufficiale" per valutare la potenza di calcolo di un'architettura: puoi darmi qualche informazione più precisa? Esiste un comitato che ne ha definito le specifiche? Chi è? Quali sono i parametri? E, soprattutto, com'è che tutto ciò sarebbe divenuto "ufficiale"?
Quote:
Maxell, che è realizzato sullo stesso PP di Kepler pota di suo già diverse ottimizzazioni all'architettura interna degli SMX. Spariscono le unità di calcolo DP separate, solo per dirne una, e lì di Watt se ne risparmiano non pochi, oltre che a permettere più unità di calcolo per superficie, cosa che Intel ha problemi realizzare viste le dimensioni non proprio contenute del suo chip per HPC. E non stiamo considerando le famose unità ARM aggiuntive che dovrebbero aumentare l'efficienza computazionale in generale, portando il valore reale dei GFlops più vicino a quello teorico (e quello teorico della GPU nvidia sta un bel pezzo sopra quello teorico Intel)
Proprio sugli ARM aggiuntivi dubito fortemente che Maxwell possa contare per aumentare i GFLOPs di Maxwell.

IMO gli ARM verranno utilizzati come piccoli processori di controllo, similmente a quanto fa Xeon Phi, che in genere riserva una core per la gestione del sistema & interfacciamento con l'host.
Quote:
Che vuol dire a parità di energia l'efficienza aumenta. Quindi forse con i 14nm Inte tornerà a pareggiare, giusto perché nvidia non ha a disposizione i 20nm questo giro. Il problema è che i 16nm sono previsti per l'ano prossimo per TMSC... quando è previsto il prossimo step per Intel? Nel 2018-19? A questi ritmi credo che sarà così.
Maxwell dovrebbe raddoppiare all'incirca le prestazioni rispetto a Tesla, com'è sempre avvenuto in passato fra un prodotto e il suo predecessore.

Già adesso Knights Corner offre prestazioni quasi doppie rispetto al suo concorrente diretto, per cui avrà poco da temere. Aggiungiamo che quest'anno arriverà anche il suo successore presentando diversi miglioramenti, pur rimanendo sempre a 22nm, quindi è tutt'altro che scontato il fatto che nVidia possa riprendersi lo scettro di soluzione HPC più performante.

Riguardo al raggiungimento delle prestazioni teoriche non vedo come si potrebbe fare. Se hai idee in merito, esponile pure. Comunque ne parlo brevemente dopo, sull'argomento Larrabee.
Quote:
La taglio breve così evitiamo di menare il can per l'aia... se Intel non ha problemi di
1.decoder che consuma poco in termini di spazio e energia
E' tutto rapportato al numero di transistor per core, come già detto.
Quote:
2.di registri che ne ha in abbondanza e usa con efficienza
Registri ce ne sono diversi e di diverso tipo; come per le altre architetture. A cosa ti riferisci esattamente?
Quote:
3.di cache che ne ha in abbondanza e di velocità supersonica (che gli altri i sognano, persino AMD che non è l'ultima arrivata)
Anche gli altri si difendono bene, ARM inclusa.
Quote:
4.di banda verso la RAM dato che usa 2 canali (la maggiorn parte dei SoC ARM ne usano uno) e di densità di codice dato che CISC vs RISC
Anche qui dipende dalla particolare soluzione. Ci sono piattaforme da 1/2/3 canali.
Quote:
4. di unità di calcolo sia INT che FP
Come gli altri.
Quote:
5.di branch prediction unit che sono decisamente più evolute di quelle ARM
Non in tutti i prodotti. Queste unità sono particolarmente costose in termini di transistor e potenza consumata, per cui si scelgono in base al budget a disposizione e agli obiettivi.
Quote:
cosa impedisce a Intel di fare un SoC x86 che sia quantomeno efficiente quanto un SoC ARM a pari PP?
Ora vorrei capire questa cosa. Forse ARM usa qualche pozione magica sui suoi die che li rende particolarmente migliori rispetto a quello che dovrebbero essere sulla carta? Non capisco: Intel è meglio di qui, no ha problemi di là, vince di qui, sborona di là, e poi immancabilmente presenta dei prodotti che non reggono il mercato. Cosa rende un SoC ARM migliore di una Intel dunque?
Qui, come dicevo nell'altro messaggio, hai cambiato completamente discorso tirando in ballo l'intero SoC, quando si parlava dell'architettura del processore.

Sul SoC, nella sua interezza, ne ho parlato esplicitamente io, e anche tu hai ne hai discusso pure con gli altri parlando delle unità specializzate.
Quote:
Che evidenzia come per 4 anni Intel sia andata in buca cercando di presentare il prodotto migliore sotto il punto di vista tecnologico. Se lo fosse stato avrebbero fatto la corsa per prendere il SoC Intel, no?
No, è una questione di volumi: non sono sufficienti quelli raggiunti finora, per cui Intel ha deciso di spingere il piede sull'acceleratore.
Quote:
Ermm, a parte i telefoni sovvenzionati non mi viene nulla in mente... diversi quanti sono? Smartphone e tablet ARM hanno toccato quota un miliardo quest'anno.... giusto per avere un termine di paragone....
Perché cambi discorso, tirando in ballo il numero di pezzi venduti, quando si stava parlando del numero di dispositivi che integrano processori Intel?

Riguardo a questo trovi qualcosa qui:
http://www.intel.com/content/www/us/...artphones.html
http://www.intel.com/content/www/us/...lets-atom.html

E non teniamo conto delle soluzioni basate su core non-Atom, che pure sono presenti nei tablet.

Non è tutta roba recente, e dunque sovvenzionata.
Quote:

No, dai qui le faccine ci stanno tutte. Oltre 2 anni per vendere forse e dico forse 5 milioni di pezzi e tu dici che la situazione Surface non dimostra come sta la situazione? Spero per Intel che questo non fosse il suo target di quote di vendita, altrimenti altro che avere le fabbriche in idle... forse non hai ben compreso le dimensioni del mercato mobile... un miliardo diviso 5 milioni (e sono buono prendo anche i pezzi venduti l'anno scorso) = 2000 (ho dovuto prendere la calcolatrice per tanti sono gli zeri di differenza). Cioè Intel ha venduto 2000 mila volte in meno di ARM in un anno e questo sarebbe una situazione positiva? O non ho capito o qualcosa non va con la definizione di "situazione drammatica" per Intel.
No Windows no x86. In entrambi i sensi, cioè se non vendi Windows Intel non decolla ma se non hai bisogno di Windows Intel la puoi lasciare a terra senza rimpianti.
Non sono io che non capisco le definizioni: sei tu che, al solito, cambi discorso quando si parlava di tutt'altro. Nuovamente tiri in ballo il numero di pezzi venduti, quando la mia frase era riferita a questo:

"questo non significa avere un tablet che pesa 1 kG perché la batteria deve essere grande per garantire una autonomia decente da portarsi sempre appresso e lo schermo è lo stesso che si usa in ufficio"

SurfacePro rientra oppure no in questa tua definizione? Sii chiaro, cortesemente.
Quote:
Guarda non so cosa tu pretenda, o se anche a te piace guardare le barrette colorate senza dar loro un senso: io ho un tablet con un vetusto Tegra2. Dual core 1GHz, vecchia architettura Cortex-A9. E forse neanche quella meglio implementata. Quando uso il brower navigo senza problemi e quando mi collego a GoggleDrive riesco a usare il programma senza cader addormentato.
Con Intel risparmierei qualche millisecondo dei millisecondi in più che i core ARM impiegano per fare quei lavori? Ma sicuro. Mi cambia la vita? Nemmeno per sogno. Mi rende più produttivo. Nemmeno per idea, dato che il tablet non lo uso per essere produttivo. Riesco a leggere HWUpgrade? Certo. Per oltre 6 ore di filate con la batteria carica. E quindi tutto il discorso su cosa dovrebbe essere meglio e perché dove cade?
Come detto tante volte in nulla. Non conta presentarsi con una soluzione che costa di più anche se da di più.
Cosa "pretendo" l'avevo già esposto nel precedente messaggio, in cui avevo presentato uno scenario reale (e non "numeri teorici", come avevi poi replicato).

E no, non si tratta di risparmiare millisecondi, proprio perché scenari come quelli dipendono molto dalle prestazioni su single core/thread.

Poi è ovvio che dipende tutto da quello che ciascuno, personalmente vuole fare, ma se mi dici a te un Tegra 2 basta, salvo poi osannare il Tegra 4 in un altro thread, beh, allora c'è qualcosa che non mi quadra. Infatti, da qui http://www.hwupgrade.it/news/tablet/...ord_51059.html :
"Un bel tabettone con quel coso potrebbe davvero essere il giusto copromesso tra portabilità e produttività."
Delle due l'una: o il tuo Tegra 2 va bene e dunque il 4 è inutile, oppure il 2 non basta e il 4 consentirà finalmente di essere più produttivi.

In ogni caso se fosse come dici tu non si capirebbe perché ci sarebbe tutta questa corsa alle prestazioni. Infatti non è così, e ti smentisci da solo con quello che hai detto sul Tegra 4.
Quote:
Ripeto, se Intel non avesse problemi con l'obesità dell'architettura x86 avrebbe già sfornato un SoC piccolo quanto quelli ARM. Invece si ritrova con SoC enormi che pareggiano l'efficienza (ma non i costi purtroppo per Intel) solo perché realizzati con n processo produttivo migliore.
Su questo ti ho già risposto: stai confrontando SoC che integrano componenti diverse, e tra l'altro individui nella dimensione dei core all'architettura x86 l'origine di tutti i mali, senza presentare alcun dato a riguardo. Hai qualche informazione sulla dimensione die occupata da una soluzione Intel e da una ARM comparabili (cioé che se la giocano all'incirca allo stesso modo)? Così potremmo finalmente fare un confronto con un dato concreto proprio su questo punto.
Quote:
Ma guarda, per quanto riguarda il multicore con me sfondi una porta aperta. Dopo 2 core, è difficile creare potenza di calcolo in maniera gratuita come vorrebbero far credere i benchmark a cui tutti i gonzi che credono di capire qualcosa di tecnologia abboccano come alborelle al grappolo di ami.
C'è gente che sceglia il proprio telefono guardando i bench, se la lineetta colorata è un millimetro dietro o avanti all'altro.
La colpa non è tutta degli utenti: a volte sono anche i s.o. a non essere ben ottimizzati.

Comunque s'è anche alzata l'asticella: il software è sempre più complesso, e richiede quindi più risorse. Logica conseguenza di ciò è l'adeguamento dell'hardware. Vedi, ad esempio, una certa nVidia che, proprio per questo motivo, ha sdoganato su mobile quello che fino a qualche tempo era riservato al desktop. E non per capriccio, ma perché c'è richiesta (reale; non teorica) di maggiori prestazioni anche in ambito mobile. Questo, peraltro, non sono io a dirlo, ma l'ha fatto qualcun altro...
Quote:
Ancora non ci siamo capiti. TMSC non ha messo a disposizione di nvidia e AMD un bel nulla di nuovo. Li lascerà ancora con i 28nm per almeno 6 mesi, il che farà 30 mesi con lo stesso processo produttivo. I nuovi 20nm, che suppongo non le siano costati poco, sono riservati esclusivamente per la produzione di SoC ARM. Stiamo dicendo che TMSC ha fatto un intero prcesso produttivo (con una sola variante) che a quanto pare sarà completamente ammortizzata dalla vendita dei SoC ARM che prourrà (forse compresi o solo quelli Apple?).
Come se Intel dicesse, ho realizzato i 14nm solo ed esclusivamente per gli Atom, il resto continuerò a produrlo a 22nm fino all'arrivo dei 10nm. Sarebbe un segnale di salute finanziaria e di mercato mostruosa. Invece fatto da TMSC è vista malamente perché lascia noi appassionati senza nuove GPU per altri 6 mesi come minimo.
Infatti non era chiaro; mi mancavano le informazioni che hai riportato adesso.

A mio avviso TSMC si sta preparando per la nuova commessa di Apple. Infatti giusto questa settimana è arrivata una "bella" notizia in merito: http://www.hwupgrade.it/news/apple/r...soc_51057.html

Da notare come Qualcomm continui a rimane l'unico produttore a integrare l'LTE nello stesso SoC.
Quote:
Un giorno mi dirai quali sono le carte alternative a disposizione di Intel al di fuori delle sovvenzioni o della corruzione.
Corruzione? Hai delle prove in merito? Perché si tratta di accuse molto gravi, che vanno ben oltre il diritto di critica e di libero pensiero.

Riguardo alle sovvenzioni, come già detto è cosa recente, con l'obiettivo di accelerare la diffusione delle sue soluzioni.
Quote:
Tecnicamente io non vedo alcuna possibilità di farcela contro l'armata ARM. Poi magari Intel l'anno prossimo ci stupisce tutti ed esce con qualcosa di veramente innovativo ed efficace (termine che contiene tutto quello che le serve per sfondare). Intanto devo aspettare ancora 12 mesi (o forse 18) prima di vedere qualcosa di nuovo da parte loro, mentre da questa parte c'è un fermento che metà basta (la curiosità per il K1 di nvidia e per i futuri SoC per server da parte un po' di tutti è enorme).
Ho già esposto le mie considerazioni in merito nei miei precedenti messaggi. Un giorno = già fatto.
Quote:
Ma quale "averci pensato troppo". Sono stati presi con le braghe calate, come si dice. Non se lo aspettavano proprio.
Cosa non ti è chiaro del fatto che Apple abbia bussato alla porta di Intel per il suo iPhone, e che sia stata Intel a rifiutare di produrle un chip economico?

Di quali "braghe calate" stai parlando, visto che all'epoca di quella vicenda non esisteva né il concetto di smartphone come lo intendiamo oggi né tanto meno quello di tablet?
Quote:
L'Atom originale, quello dei netbook, era il meglio che Inetl offriva per il basso consumo. Rendiamoci conto come questa compagnia ha ritardato l'evoluzione informatica per anni dopo che ha eliminato la concorrenza con metodi più o meno legali!
Evidentemente non era tutto questo disastro, se Apple è andata a bussare alla porta di Intel per infilarlo addirittura in uno smartphone...
Quote:
Non possiamo che ringraziare ARM per non aver mollato (e sopravvissuto proprio nel mondo embedded che fortunatamente non necessita né di Intel né di Windows) e devo dirlo, di Apple che l'ha sdoganata per davvero. Se non fosse stato per questa combinazione avremmo ancora un Atom fatto leggermente meglio del l'originale giusto per contrastare l'altra schifezza prodotta da AMD e un embedded basato ancora su terminali lentissimi per evitare troppi consumi.
Veramente Atom è nato per il settore dell'extreme mobile, ma non degli smartphone: dei PC. Dunque roba come i netbook, per l'appunto. Ciò nonostante Apple pensava di impiegarlo per l'iPhone, e dunque poteva essere utilizzato anche in questo settore.

Poi non capisco ARM cos'avrebbe dovuto mollare, visto che DA ANNI prosperava già nei telefonini, nei PAD, ed era alla base dei Pocket PC. Questo giusto per rimanere nell'ambito del mobile smartphone / tablet.

Poi nulla da dire che la concorrenza abbia portato ad Atom migliori, ma mi sembra che il contesto storico fosse decisamente diverso da quello che vorresti dipingere.
Quote:
Diciamo per prima cosa che gli smartphone hanno superato i feature phone perché il divario di prezzo è ormai zero e i feature phone come ecosistema sono morti da tempo. O fai solo telefonate e SMS e vai di cellulare classico (che ancora vende e resiste) o se vuoi qualcosa di più non puoi fare a meno di un sistema che usi Internet per tutto quello che può, dal browser passando per Whatsapp o simlia, per Skype, servizi Google, Dropbox senza tralasciare i giochini vari e i servizi dei vari store. I feature phone oggi sono come comprare una Panda con 3 ruote al prezzo di una Golf full accessoriata. E' logico che non hanno più alcun senso.
Hanno comunque una notevole quota di mercato, proprio perché il divario di prezzo non è zero e c'è tanta gente che continua a usare il telefonino per... telefonare; con l'SMS che rappresenta già qualcosa di più.

Poi, come dicevo anche prima, il punto è che l'utenza è ormai abituata ad avere di più. Ed è anche il motivo della corsa alle prestazioni...
Quote:
Eh, non è che questo inseguimento le costi zero, sopratuttuo per i costi di R&D che non vengono di certo coperti dal quantitativo esiguo di pezzi venduti.
Atom non viene utilizzato esclusivamente in ambito mobile. Va molto bene anche nel mercato dei micro-server e dei data center, a motivo delle ottime prestazioni e dei consumi ridotti; settori che sono in costante crescita e in cui ARM ha giusto qualche briciola.
Quote:
Per dirti come è cambiato lo scenario, prima del boom di ARM Intel stava pensando di farsi fare gli Atom da una fonderia terza.
Mi sembra che queste fossero soltanto voci.
Quote:
Ora è il contrario, sta cercando qualcuno che venga a occuparle i macchinari (ma che poi non le faccia concorrenza diretta con una architettura migliore realizzata sullo stesso processo produttivo, sarebbe un suicidio).
Non credo ci sia pericolo per questo. Infatti Intel ha aperto agli FPGA, ma non alla concorrenza diretta.
Quote:
Eh, no, facciamola complessa e obesa anche questa per mantenere la retrocompatibilità in un mercato che non ne ha bisogno.
Scusami, ma come fai a sostenere questa tesi? Potresti spiegarmi per quale motivo un'architettura in grado di garantire retrocompatibilità debba per forza essere complessa? Che poi passi il termine complesso, perché ci potrebbe stare, ma obeso dipende strettamente dalla dimensione del core, come già ripetuto diverse volte.

Comunque in base a quali motivazioni tecniche fai queste affermazioni?

Io te ne potrei fare un paio di esempi, uno pure piuttosto vecchio, che dimostrano l'esatto contrario. E un altro molto recente; nuovo di zecca. Ma al momento preferisco aspettare le tue argomentazioni in proposito.
Quote:
Scusa, ma sembri non capire l'importanza della cosa: vuoi mettere ARM che perde la retrocompatibilità alla versione 2 della sua ISA nel lontano 1985
Ricordavo male: è stata la v3 a introdurre la nuova ISA a 32-bit, nel 1992. Quindi ben SETTE anni dopo la prima versione, e dopo che Acorn aveva già realizzato parecchie macchine (Archimedes) e versioni del s.o. che ci girava sopra (RiscOS; prima ancora di questo vi fu Arthur).

Ne ha avuto di tempo per sistemare l'errore madornale che aveva commesso...
Quote:
rispetto ad Intel che la perde nel 2014 quando tutto il mondo informatico si appoggia su un sistema operativo che gira esclusivamente su quella ISA?
Senz'altro il peso sarebbe diverso, ma bisognerebbe anche vedere in che modo potrebbe essere realizzata la nuova architettura.

In ogni caso rimane il fatto concreto: altre architetture hanno già presentato nuove ISA che hanno rotto la compatibilità col passato. Non si sono levate grida di scandalo all'epoca, ed è incomprensibile perché lo si dovrebbe fare adesso, e soltanto se fosse Intel a farlo: due pesi e due misure?
Quote:
Se lo farà è perché nel mondo mobile della retrocompatibilità con Windows classico non gliene può fregare nulla a nessuno. Tanto MS sui suoi Surface ci mette gli ULV.
Non ci sarà questo pericolo, anche perché su mobile sono appetibili le soluzioni 2-in-1, come ho già detto prima.
Quote:
Praticamente mi hai descritto la vita dello sviluppo di Larrabee, ma non come la intendevo io. A parte la pazzia di voler sostituire unità dedicate con unità general purpose (sempre per l'idea malsana che ha pervaso Intel sin dalla sua genesi, cioè che il general purpose fosse la panacea di tutti i mali),
Veramente Intel ha introdotto apposite unità dedicate / specializzate, per gestire in maniera migliore specifici ambiti delle GPU (texture et similia).

Inoltre ha introdotto un'unità vettoriale (SIMD) nuova di zecca proprio per gestire meglio la tipologia di codice generalmente eseguito dalle GPU.

In tutto ciò x86 (x64 in realtà) riveste il ruolo di componente scalare & di controllo, che nelle GPU è gestito da unità dedicate / specializzate.

Dove starebbe quindi lo scandalo? Che per realizzare quel tipo di lavoro (ribadisco: calcolo scalare & di controllo) abbia usato ciò che aveva già in casa? Perché non avrebbe dovuto farlo, visto che queste componenti nelle GPU più moderne stanno diventando sempre più simili a un normale processore? Tant'è che vedremo dei processori ARM in futuro integrati nelle GPU proprio per questi compiti...

Che poi la cosa fa un po' ridere, perché nVidia e AMD hanno fatto lo stesso (anzi) con le GPU, adattandole & riciclandole per il settore HPC. Ma immagino che in questo caso sia tutto lecito, vero?
Quote:
quello che è rimasto in mano a Intel è un cluster di unità x86 che hanno perso la loro natura di x86 per svolgere compiti prettamente da coprocessore come fossero delle FPU complesse rispetto alla CPU princiale a cui sono collegate.
Bene: è proprio quello che serve in questi scenari. Infatti, come dicevo sopra, è una strada (non basata su x86) che seguiranno anche gli altri, nVidia inclusa.

Qual è il problema?
Quote:
Ora, 'sta storia della architettura stra conosciuta che permette migliore ottimizzazione e balle varie, per favore non svegliamola ogni volta che si parla di x86. Usati in quella maniera non sono né meglio né peggio di una schiera di unità di calcolo NEON, FPU generiche, unità vettoriali di una GPU, SPE cell o di core ARM. Infatti nessuno scrive per tale scheda in assembler per tutte e 50 le unità di calcolo separate, ma si usano librerie pre costituite o comunque API di comunicazione ià belle che pronte.
Chi si beve la storia che l'uso di vetusti core x86 con una mega unità Floating Point (che è quella che fa la differenza, non il restante 99% dell'ISA x86 che non serve a una pippa su questo marchingegno riciclato) siano la soluzione migliore possibile?
Negli anni abbiamo visto architetture comportarsi molto meglio degli x86 nel campo della computazione parallela e ora ci dobbiamo berci la fiaba che solo il fatto che i core x86 sono ben conosciuti (anche se stravolti in quella funzione di coprocessore) garantiscono una capacità di calcolo altrimenti impossibile? Dai su, i risultati parlano da soli, per fortuna. Sì certo, se scendiamo ancora di PP qualcosa miglioriamo, ma davvero, la speranza è che qualcuno crei una scheda acceleratrice general purpose che cancelli questa oscenità da 300W e mezzo km di mm^2 di silicio (se ci mettevano un Itanium magari ottenevano un risultato migliore peraltro riciclando ancora qualcosa che non ha funzionato come previsto).
Quella che riporti è la stessa tesi che un ingegnere nVidia s'è sentito di dover riportare nel blog ufficiale dell'azienda: https://blogs.nvidia.com/blog/2012/0...l-mic-or-gpus/

Si potrebbe pensare: allora è proprio vero che sia così! Poi basta leggere i commenti, per capire che l'attacco portato non è che fosse così solido; tutt'altro. E a mio avviso rappresenta, invece, uno sfogo, una sorta di mettere le mani avanti perché, al contrario di quello che dici, i risultati di Xeon Phi ci sono, eccome. E dunque nVidia teme il nuovo concorrente che è arrivato nel suo lucrativo mercato HPC, e cerca di minimizzarlo o screditarlo.

Sì, per spremere dei bestioni del genere si usano librerie e API già pronte, ma... non è così semplice. Questi sono dei mattoncini che sono nelle mani degli sviluppatori, che devono usarli per costruire i LORO, SPECIFICI, software. E questo lavoro non te lo fa né Intel né nVidia né AMD o altri: è tutto a carico degli sviluppatori.

Qui viene il bello: spesso chi deve scrivere codice NON è un programmatore professionista, ma è un fisico, ingegnere meccanico, chimico, ecc. che è COSTRETTO a farlo per ottenere degli strumenti o delle dimostrazioni per il proprio campo. Gente che magari ha ereditato o già scritto pezzi di codice in C, C++, o Fortran, e che non ha nessuna voglia di riscriverlo per farlo girare su una GPU, mentre è MOLTO interessato a una semplice ricompilazione o ad aggiungere qualche direttiva al compilatore per rendere il proprio codice immediatamente adattato per sfruttare la potenza di calcolo di queste massicce unità di calcolo.

Prova a chiedere a un astrofisico se gli piacerebbe di più riscrivere in CUDA il suo codice C++ o Fortran che calcola gli autovalori di matrici 10000x10000, oppure se preferisce include la MKL di Intel per avere automaticamente supportato Xeon Phi, o ancora aggiungere qualche direttiva (#pragma o !OMP, a seconda che sia C++ o Fortran) se non ha usato librerie standard ma ha scritto codice apposito, e vedi un po' cosa ti risponde. No, non è un esempio inventato: questi sono casi reali, e sono situazioni molto comuni per chi lavora in ambito HPC.

Peraltro nVidia non ha nemmeno un compilatore Fortran da mettere a disposizione, e ti assicuro che questo linguaggio è ancora usatissimo in quest'ambito. Mentre Intel offre uno dei migliori compilatori al mondo, che ovviamente supporta anche le estensioni parallele standard (e non) del linguaggio.

Questo rimanendo soltanto in ambito di librerie e linguaggi, ma poi ci sono anche tool di supporto per il profiling, l'ottimizzazione, e il debugging. Anche qui, Intel offre pacchetti software che coprono tutte le esigenze degli sviluppatori per rendere loro vita più semplice. Non basta, insomma, scrivere soltanto codice per realizzare un progetto; come non basta soltanto avere a disposizione una scheda che macina GFLOPS per ottenere dei risultati. La tua è una visione troppo semplicistica, e peraltro ben lontana dalla realtà.

Com'è pure ben lontano dalla realtà che sia semplice arrivare ad avvicinarsi a sfruttare la potenza teorica messa a disposizione da una GPU...

A questo punto vorrei capire una cosa, però: parli per sentito dire o ciò che hai riportato prima è frutto di qualche studio e/o esperienza in materia e/o lavoro in quest'ambito?
Quote:
I netbook sono stata la mossa commerciale più furba della storia che ha accalappiato un sacco di gonzi (come, erano così utili e fondamentali che oggi non esistono nemmeno più...). Fortuna che i tablet sono arrivati in tempo prima che trovassero anche quelle porte chiuse da abitudini e forma mentis completamente stravolte dal marketing Intel.
Cosa ha di orribile l'Atom? Dimmi una sola cosa che ha di positivo. E pensare che era il fiore all'occhiello di Intel per il basso consumo (con quel magnifico chipset che consumava quasi il doppio della CPU stessa).
Ti rispondo per un articolo che scritto in merito, un po' di anni fa: http://www.appuntidigitali.it/10073/...l-mio-netbook/
Quote:
Per quanto mi stia sulle balle non smetterò mai di ringraziare Apple per aver dato più che una scossa al mercato e allo scempio portato dal monopolio Intel. Tu non vorresti che lo definissi tale, ma tale è a tutti gli effetti.
E' una posizione dominante, lo sai. Comunque proprio Apple è andata a bussare alla porta di Intel, che poteva offrirle proprio il tuo odiato Atom. Dovresti chiederti il perché, visto che faceva così schifo.
Quote:
Miii s'è fatto tardissimo.
Non ho tempo per rileggere tutto. Spero di non aver scritto troppe castronerie.
Buona notte
Mi spiace per aver tardato tanto per la risposta, ma non ho avuto proprio tempo, e peraltro questo messaggio mi ha richiesto parecchie ore.

Mi scuso anche con Littlesnitch, ma non sono riuscito a rimanere sintetico. Purtroppo si è parlato di tante cose, e non sono il tipo da affrontare grossolanamente certe problematiche; poi sono particolarmente pignolo, non mi piace lasciare nulla al caso, e preferisco la chiarezza al dubbio. Comunque siamo nel fine settimana, per cui c'è un po' di tempo libero a disposizione per leggere questo papiro.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondono completezza e duttilità ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondo...
Cybersecurity: email, utenti e agenti IA, la nuova visione di Proofpoint Cybersecurity: email, utenti e agenti IA, la nuo...
Hisense A85N: il ritorno all’OLED è convincente e alla portata di tutti Hisense A85N: il ritorno all’OLED è convi...
Acer TravelMate P6 14 AI: il Copilot+ PC sotto il chilo per il professionista in movimento Acer TravelMate P6 14 AI: il Copilot+ PC sotto i...
Recensione Borderlands 4, tra divertimento e problemi tecnici Recensione Borderlands 4, tra divertimento e pro...
Xbox Game Pass cambia: nuovi piani e pre...
Intel produrrà chip per AMD? L'in...
Ecco il nuovo Amazon Luna: videogiochi p...
ISRO: prosegue lo sviluppo della navicel...
CoD Black Ops 7 offrirà la beta p...
Il telescopio spaziale James Webb sta ai...
Crucial spinge sui moduli LPCAMM2: fino ...
Imgur blocca gli utenti del Regno Unito:...
ROG Xbox Ally già in consegna: qu...
Ubisoft annuncia Vantage Studios: Assass...
Il solare diventa la prima fonte di elet...
Google Home si rinnova completamente: ar...
Dense Geometry Format (DGF): novit&agrav...
Gemini for Home arriva a ottobre sui dis...
Amazon Smart Air Quality Monitor: a soli...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 23:35.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1