IDF Fall 2007, processori Octo Core e GPU Intel

IDF Fall 2007, processori Octo Core e GPU Intel

Intel anticipa le caratteristiche di Nehalem, architettura del dopo Penryn, promettendo processori ad otto core, memory controller integrato ed un nuovo bus di comunicazione. Si fa strada l'idea di destinazioni d'uso del modulo Larrabee anche per schede video di fascia alta, in concorrenza con AMD e NVIDIA. Questo e altro ancora nel report del Day 1

di , pubblicato il nel canale Sistemi
NVIDIAIntelAMD
 
  • Articoli Correlati
  • IDF Fall 2007, dal Tera Scale alle Mobile Sensing Platform IDF Fall 2007, dal Tera Scale alle Mobile Sensing Platform Ai blocchi di partenza l'Intel Devloper Forum, che nella giornata precedente l'apertura ufficiale offre alla stampa la possibilità di seguire alcune pre-conferenze. Dal Tera Scale alle Mobile Sensing Platform, vediamo cosa bolle nella grande pentola di Intel
38 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
frankie19 Settembre 2007, 23:41 #31
difatti molti sw che uso sono ancora monocore... e l'altro dorme
mjordan20 Settembre 2007, 00:57 #32
Originariamente inviato da: frankie
difatti molti sw che uso sono ancora monocore... e l'altro dorme


Probabilmente ai software che usi gli è troppo anche un solo core moderno, perchè le applicazioni che hanno una qualche rilevanza tecnica/commerciale oggi giorno sono tutte multithread.
indio6820 Settembre 2007, 01:21 #33
han rotto le balle con sta gara a chi ce l'ha + lungo...come detto da tanti , sarei già contento di sfruttare per uso home e game i due core che ho...altro che 8-3-ecc-ecc-bah!
nicgalla20 Settembre 2007, 01:26 #34
bella Intel!!! vai che le azioni salgono ancora.... adesso speriamo che Barcelona non sia un paper launch ma un progetto concreto, utile ad AMD per sopravvivere in attesa di Fusion.... Intel ha fatto capire che non sarà la sola, ma il know-how e i brevetti di ATI vorranno pur dire qualcosa....

X chi dice che i quad o octa-core sono inutili: è da quando esiste l'informatica che si sente la parola "inutile", in frasi che nel giro di poco tempo furono smentite. Certo c'è stato del vaporware e insuccessi, ma ci sarà sempre un modo di sfruttare la potenza elaborativa a disposizione.
Per esempio io sto ancora aspettando un uso massiccio dell'interfaccia vocale: già quella di Vista è davvero promettente (ma quando la localizzano in italiano?)
Marco7120 Settembre 2007, 11:38 #35

Ricordi...

...l'MC68010-8 (le ultime due cifre corrispondevano alla velocità in MHz) lo sostituì al processore "originale", il glorioso MC68000, di cui era/è dotato il mio primo Amiga 500 (avrei voluto comperare il 2000 con scheda Janus ma costava troppo)...
Il 68010 poteva essere più veloce grazie alla sua piccola loop-cache memory (la cache memory per istruzioni venne introdotta nel 68020 ed assommava a 256 Bytes) ma purtroppo generava delle guru-meditations a causa di istruzioni che nel 68010 avrebbero dovuto essere eseguite in modalità "privilegiata"...
Per chi si ricorda il programma Gomf 3.0 era molto di aiuto...
Un ragazzo al di sotto dei 20 anni probabilmente troverà ridicoli i numeri (piccoli) che ho enunciato sopra ma questo era...
Quando poi si parla del concetto di "inutile" nel mondo dei computer (in Italia "calcolatori elettronici" bisogna poi capire che tale concettto è molto "relativo"...
Quando nel 1985/1986 Intel presentò l'80386 (con un bug sulle istruzioni MUL che lo faceva "scaldare" parecchio già a 16 MHz...) le "cassandre" dell'epoca si affannarono a presagire sventure tremende a causa della modalità FLAT del protected mode che permetteva di avere un enorme spazio di memoria indirizzabile ammontante a 4GiB...
Ora si parla tanto di "memorie a stato solido", forse qualcuno si ricorderà delle unità bubble memory di I.B.M che equipaggiarono i primi Shuttle...

Grazie.

Marco71.
Marco7120 Settembre 2007, 11:43 #36

Non sono d'accordo...

...con chi limita i "vantaggi teorici" (per ora) dell'impiego del set di istruzioni S.S.E4 a poche "applicazioni di nicchia" in ambito grafico e gaming principalmente...
Con l'utilizzo di compilatori Intel Fortran o C/C++ si può trarre un vantaggio da ogni set di istruzioni s.i.m.d più esteso in molti ambiti del calcolo scientifico (per fare un esempio)...
Senza contare gli algoritmi "base 16" per il divider e quello migliorato per il calcolo delle radici quadrate...
Grazie.

Marco71.
AnonimoVeneziano21 Settembre 2007, 19:43 #37
Originariamente inviato da: Mariuccia
chi ha parlato di ottimizzare client e di browser..


Beh, dubito che l'utente comune usi altre applicazioni a parte quelle.

Tutti i software che fanno operazioni intensive come comprimere audio o video, rendirizzare immagini 3D , calcoli scientifici parallelizzabili , etc.... sono multithreaded da una vita.

La verità è che all'utente casalingo che usa una sola applicazione il multicore non serve a nulla, perchè le applicazioni che usa l'utente casalingo , anche se a volte sono parallelizzabili, richiedono una potenza infima e quindi la parallelizzazione è totalmente inutile, fa crescere i costi di sviluppo e porta spesso più overhead di calcolo per via della sincronizzazione tra i vari thread. Il multicore all'utente comune serve solo per il multitasking (usare più applicazioni in contemporanea)

I giochi? Beh, oggi il limite nei giochi è soprattutto la scheda video più che i processori. Se non hanno ancora fatto l'"ottimizzazione" allora significa che probabilmente non è così fondamentale per il risultato finale.

Comunque sono sicuro che la maggiorparte dei giochi moderni usa un approccio multithreaded in qualche modo senza che l'utente comune lo sappia.

Saluti
rockroll06 Ottobre 2007, 06:19 #38

Soliti discorsi?

@markenforcer:
il link al post che riferisci spiega (a parte qualche entusiasmo ed ottimismo di troppo), quel che già si afferma nei "soliti discorsi" sui multicore non sfruttati o addirittura al momento inutili: tutto dipende dal software applicativo da rivedere anzi ripensare per poterlo rendere multicore (se e dove è possibile).
Che i S.O. recenti, Linux in particolare, siano già progettati multicore non vi sono mai stati dubbi nei "soliti discorsi", ma quanto questo parallelismo possa essere spinto, ovvero quante operazioni siano sensatamente e significativamente sovrapponibili nelle componenti di un sistema operativo, e sopratutto che percentuale di impatto abbiano sul thruput generale, è tutto da vedersi (rammento che quando una o più applicazione stanno impegnando massivamente la cpu il S.O. è in condizione di "wake-up" ossia dormiente).
Quanto agli applicativi, la parallelizzazione perfetta è una chimera.
Ma il vero problema è che nel mare di software esistente ed indispensabile ancora squisitamente monothread, per poter fare interventi ad hoc occorne ricomprenderne perfettamente la logica di funzionamento, ed il software moderno e fortemente packetizzato, nel senso che è composto in massima parte di moduli precostruiti (purtroppo), di cui si conoscono esattamente le specifiche di utilizzo ma molto spesso ci si è del tutto dimenticati della logica di funzionamento (visto che documentare con dettagliati diagrammi di flusso è considerato ormai una ridicola mania del passato...).
In questa ottica l'ottimismo dell'autore del post segnalato è completamente fuori luogo.
i h

. dtutto da vedereposssano non il più pgli dare in qualche modo, ove possibile, i. coquasi co

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^