Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Micron e millisecondi: la piattaforma ServiceNow guida l'infrastruttura IT di Aston Martin F1
Micron e millisecondi: la piattaforma ServiceNow guida l'infrastruttura IT di Aston Martin F1
Dalla precisione estrema dei componenti alla gestione digitale dei processi: come la piattaforma ServiceNow consente ad Aston Martin Aramco Formula One Team di ottimizzare risorse IT e flussi operativi in un ambiente dove ogni millesimo di secondo conta
ASUS GeForce RTX 5080 Noctua OC Edition: una custom fenomenale, ma anche enorme
ASUS GeForce RTX 5080 Noctua OC Edition: una custom fenomenale, ma anche enorme
ASUS e Noctua tornano a collaborare con la GeForce RTX 5080 Noctua OC Edition, una scheda pensata per chi cerca potenza estrema e silenziosità assoluta. Il nuovo sistema di raffreddamento, con tre ventole Noctua NF-A12x25 G2 da 120 mm e una camera di vapore maggiorata, promette temperature record e rumorosità quasi impercettibile. Non mancano dual BIOS, materiali di qualità e ampie possibilità di overclock. Ma quanto migliora davvero rispetto alla Founders Edition? Scoprilo nel nostro test completo.
Dreame Aqua10 Ultra Roller, la pulizia di casa con un rullo
Dreame Aqua10 Ultra Roller, la pulizia di casa con un rullo
Il più recente robot per la pulizia domestica di Dreame, modello Aqua10 Ultra Roller, abbina un potente motore di aspirazione della polvere a un sofisticato sistema di lavaggio con rullo integrato. Il tutto governato dalla logica di intelligenza artificiale, per i migliori risultati
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 11-06-2010, 15:06   #41
Tsaeb
Member
 
L'Avatar di Tsaeb
 
Iscritto dal: Jan 2010
Messaggi: 217
l'integrazione di una GPU nella CPU è forse la prima vera evoluzione in ambito X86 degli ultimi 10 anni. Ora dobbiamo solo sperare che il software si adegui di conseguenza. Le premesse ci sono tutte.
Tsaeb è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 15:08   #42
Devil402
Senior Member
 
L'Avatar di Devil402
 
Iscritto dal: Mar 2009
Messaggi: 570
No, chiariamo...un unico chip riduce di molto i consumi e di certo, un solo dissipatore invece di 2, da che mondo e mondo, conviene. Oltretutto, l'hai detto anche te...Congo integra una 3200...basta ed avanza, ma se un prodotto offre di più anche con vantaggi per quanto riguarda dimensioni e consumi, perchè non dovrebberlo lanciarlo? oltretutto, non si parla di vantaggi da poco per un netbook, notebook o quant'altro...
Devil402 è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 15:23   #43
ConteZero
Senior Member
 
L'Avatar di ConteZero
 
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
In quel caso il problema è il calore prodotto.

Avere due fornetti a dieci centimentri significa poterli raffreddare singolarmente, quindi puoi usare due dissipatori ed un sistema meno "spinto".
Avere due fornetti unificati significa dover raffreddare in un unica passata, significa più calore a parità di superficie di dissipazione.

Quanto all'unico chip (SOC ?) ne riparliamo quando oltre all'elaborazione stream dei flussi nella CPU metti pure tutto il resto dei componenti che in genere si trova nel bridge.

In ultimo 320 stream processor consumano, scaldano ed occupano lo stesso die size sia sul bridge che sulla CPU.
__________________
A casa ho almeno sette PC, in firma non ci stanno

Ultima modifica di ConteZero : 11-06-2010 alle 15:26.
ConteZero è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 15:33   #44
Devil402
Senior Member
 
L'Avatar di Devil402
 
Iscritto dal: Mar 2009
Messaggi: 570
Come se avessero semplicemente portato i 320 stream processor all'interno della cpu -.-" il calore prodotto è legatissimo ai consumi, se io ho un chip che mettiamo caso, consuma 25W ed uno che ne consuma 30W, ho più calore di un singolo chip con consumo pari a 40W...senza considerare le varie ottimizzazioni per risparmio energetico ed altro, che sicuramente, saranno implementate in Fusion...Al momento, comunque, CPU e GPU sono affiancate ma è diverso dal sistema adottato da intel con la serie Core...Fusion 2, sarà un unico chip in grado di fare le due cose, con consumi e calore ovviamente ridotti...
Devil402 è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 15:37   #45
ConteZero
Senior Member
 
L'Avatar di ConteZero
 
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
Quote:
Originariamente inviato da Devil402 Guarda i messaggi
Come se avessero semplicemente portato i 320 stream processor all'interno della cpu -.-" il calore prodotto è legatissimo ai consumi, se io ho un chip che mettiamo caso, consuma 25W ed uno che ne consuma 30W, ho più calore di un singolo chip con consumo pari a 40W...senza considerare le varie ottimizzazioni per risparmio energetico ed altro, che sicuramente, saranno implementate in Fusion...Al momento, comunque, CPU e GPU sono affiancate ma è diverso dal sistema adottato da intel con la serie Core...Fusion 2, sarà un unico chip in grado di fare le due cose, con consumi e calore ovviamente ridotti...
Ok, ma le ottimizzazioni per abbassare i consumi e quindi il calore prodotto li fanno sia che gli gream processor siano sulla CPU sia che siano nel NB... non è che magicamente nella CPU scaldano meno.
Anzi, nella CPU dovendo avere a che fare con il calore prodotto dalla CPU stessa probabilmente consumeranno (e scalderano) di più (perché bisognerà voltarli un po'più sù per tenerli stabili a temperature più alte).
Ed "impilando" core "grafici" e CPU nello stesso chip il calore generato "nel punto" sarà notevolmente superiore, e difficile da dissipare.

E non ci vuole molto a capire che se c'è più roba che lavora (as in quad core vs dual core a pari processo produttivo) c'è più roba che scalda, quindi più calore e quindi più rogne per la dissipazione.
__________________
A casa ho almeno sette PC, in firma non ci stanno

Ultima modifica di ConteZero : 11-06-2010 alle 15:39.
ConteZero è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 15:55   #46
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14736
@ConteZero (#35)
Ma quella che devi porti è proprio la domanda contraria:
"Se la GPU svolge tanto bene compiti "da CPU", ossia general purpose, perchè continuare a sviluppare CPU che arrancano dove la GPU va tanto bene e non integrare una GPU dentro la CPU?"

In questo modo avremo a disposizione un'unità equilibrata, capace di essere forte da ogni punto di vista.
Quando il software sarà davvero adeguato si potrà fare a meno di elementi CPU che verranno surclassati da quelli GPU, con notevole risparmio di spazio e calore.
Fino ad allora avremo comunque vantaggi notevoli: hardware semplificato (controller e cache condivise), maggiore integrazione (riduzione di latenze e costi per hardware accessori), minori consumi, accesso anche per la parte GPU alle tecnologie produttive più avanzate usate per la GPU (il SOI, nel caso di AMD, e anche il processo più fine rispetto a quelle generalmente più economico solitamente usato per i chipset), e soprattutto non rimane silicio sprecato perchè fa le veci della scheda video integrata che siamo abituati a vedere nei chipset e ha già di suo motivi di utilizzo nel panorama attuale, senza che ancora il concetto di fusion sia perfettamente operativo.
Insomma, ci sono tutti i motivi per portare avanti questo progetto.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 15:59   #47
Devil402
Senior Member
 
L'Avatar di Devil402
 
Iscritto dal: Mar 2009
Messaggi: 570
MAH! Se si parla di consumi COMPLESSIVI ridotti e non di poco, vuol dire che la CPU consuma meno e riscalda conseguentemente meno e che la GPU fa la stessa cosa...ergo, una soluzione Fusion consuma e riscalda di meno in ambiti d'uso normali ò_ò non è che sommi le temperature e scaldano di più >_< se prima una cpu consumava 40W riscaldando, buttandola li, sui 50° ed una GPU invece, consumava 70W riscaldando fino a 40°, ed ora il consumo complessivo è di facciamo caso, 50W, significa che le due componenti al suo interno, consumano di meno e riscaldano conseguentemente di meno e quindi, anche l'intero chip... CPU + GPU nel primo caso, consumerebbero 40+70 W mentre nel secondo, solo 50W...il calore prodotto sarebbe quindi minore in Fusion rispetto a quello presente nella normale accoppiata...sbaglio? >_<
Devil402 è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 16:09   #48
ConteZero
Senior Member
 
L'Avatar di ConteZero
 
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
Quote:
Originariamente inviato da calabar Guarda i messaggi
@ConteZero (#35)
Ma quella che devi porti è proprio la domanda contraria:
"Se la GPU svolge tanto bene compiti "da CPU", ossia general purpose, perchè continuare a sviluppare CPU che arrancano dove la GPU va tanto bene e non integrare una GPU dentro la CPU?"

In questo modo avremo a disposizione un'unità equilibrata, capace di essere forte da ogni punto di vista.
Quando il software sarà davvero adeguato si potrà fare a meno di elementi CPU che verranno surclassati da quelli GPU, con notevole risparmio di spazio e calore.
Fino ad allora avremo comunque vantaggi notevoli: hardware semplificato (controller e cache condivise), maggiore integrazione (riduzione di latenze e costi per hardware accessori), minori consumi, accesso anche per la parte GPU alle tecnologie produttive più avanzate usate per la GPU (il SOI, nel caso di AMD, e anche il processo più fine rispetto a quelle generalmente più economico solitamente usato per i chipset), e soprattutto non rimane silicio sprecato perchè fa le veci della scheda video integrata che siamo abituati a vedere nei chipset e ha già di suo motivi di utilizzo nel panorama attuale, senza che ancora il concetto di fusion sia perfettamente operativo.
Insomma, ci sono tutti i motivi per portare avanti questo progetto.
Risposta seria ed equilibrata all'idea di togliere pezzi di CPU x86 (e x64) per usare al loro posto unità della GPU che non si capisce come debbano essere integrate nell'ISA e nell'architettura:



Quote:
Originariamente inviato da Devil402 Guarda i messaggi
MAH! Se si parla di consumi COMPLESSIVI ridotti e non di poco, vuol dire che la CPU consuma meno e riscalda conseguentemente meno e che la GPU fa la stessa cosa...ergo, una soluzione Fusion consuma e riscalda di meno in ambiti d'uso normali ò_ò non è che sommi le temperature e scaldano di più >_< se prima una cpu consumava 40W riscaldando, buttandola li, sui 50° ed una GPU invece, consumava 70W riscaldando fino a 40°, ed ora il consumo complessivo è di facciamo caso, 50W, significa che le due componenti al suo interno, consumano di meno e riscaldano conseguentemente di meno e quindi, anche l'intero chip... CPU + GPU nel primo caso, consumerebbero 40+70 W mentre nel secondo, solo 50W...il calore prodotto sarebbe quindi minore in Fusion rispetto a quello presente nella normale accoppiata...sbaglio? >_<
Ogni componente scalda in proporzione al suo processo produttivo ed a quanto "lavora" (a quanto i suoi transistor "commutano" per unità di tempo).
Se "si parla" posso parlarti pure degli alieni, difatto 320 stream processor scaldano come 320 stream processor, ed integrarli sulla CPU non li fa scaldare più o meno di integrarli nel NB.
Il punto è che sul NB a scaldare ci sono quasi esclusivamente loro, e quindi il calore generato è poco e basta poco per disperderlo, sulla CPU invece il calore "si somma" (non algebricamente sui gradi, ma si somma comunque) a quello prodotto dalla CPU, e questo complica di molto la dissipazione.
Al di fuori di questo chi giocava con l'overclock tempo addietro ricorda che bisognava aumentare la tensione passata ai componenti per mantenerli stabili all'aumentare della temperatura, e questo è un effetto collaterale tipico che probabilmente vedremo quando si andrà a ficcare un fornetto da 320 stream processor nel giardino di casa di una CPU...
__________________
A casa ho almeno sette PC, in firma non ci stanno

Ultima modifica di ConteZero : 11-06-2010 alle 16:13.
ConteZero è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 16:24   #49
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14736
@ConteZero
Risposta equilibrata eh?
Non so se hai dato un'occhiata all'architettura Bulldozer, il poco che se ne sa per lo meno: per ogni unità in virgola mobile ci saranno due unità intere.
AMD sta già percorrendo questa strada.
Quando il software sarà adeguato, magari con l'annunciato Fusion II nel 2015, AMD farà scelte ancora più forti in questa direzione.
Pensi davvero sia una cosa tanto assurda?
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 16:29   #50
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14736
(perdonate il doppio post, dalle news non si puà editare)

Quote:
Se "si parla" posso parlarti pure degli alieni, difatto 320 stream processor scaldano come 320 stream processor, ed integrarli sulla CPU non li fa scaldare più o meno di integrarli nel NB.
In questo caso invece l'utilizzo del SOI permette di ridurre in consumi dei 320sp (ma no erano 400-480?) proprio perchè lo si sta integrando nella GPU.
Non solo: il PCB della scheda video consuma, e non c'è. Due controller di memoria consumano, e ce n'è solo uno. Il pciE consuma anche lui. La cache condivisa potrebbe anch'essa aiutare in questo senso.
E che consumi meno non lo dico io, lo dicono i risultati: senza cambiare architettura AMD ha ottenuto, almeno a quanto dichiarato, risultati davvero insperati.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 16:31   #51
ConteZero
Senior Member
 
L'Avatar di ConteZero
 
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
Se vogliono fare nuove e più avveneristiche architetture (non solo CPU, architetture proprio) si accomodino, gli x86/x64 sono fatti in un certo modo e perché gli giri sopra la solita roba (Windows in primis) è necessario che funzionino in un certo modo (tipo su CPU general purpose con un set d'istruzioni che già ora è lungo una quaresima).
Magari è anche carino immaginarsi un altro set d'istruzioni addizionali, il 3DForeverAfter, ma checché se ne sappia per ora non c'è nulla di questo genere e non è facile pensare d'integrarci qualcosa del genere.
__________________
A casa ho almeno sette PC, in firma non ci stanno

Ultima modifica di ConteZero : 11-06-2010 alle 16:34.
ConteZero è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 16:42   #52
ConteZero
Senior Member
 
L'Avatar di ConteZero
 
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
Quote:
Originariamente inviato da calabar Guarda i messaggi
In questo caso invece l'utilizzo del SOI permette di ridurre in consumi dei 320sp (ma no erano 400-480?) proprio perchè lo si sta integrando nella GPU.
Se il SOI lo applichi al NB e la GPU la metti lì i consumi li riduci in egual misura.
Il processo produttivo permette eguali risparmi, non differenzia fra utilizzi finali.

Quote:
Non solo: il PCB della scheda video consuma, e non c'è.
La "scheda video" è un box nero con su scritto "scheda video", se nella scheda video a consumare sono gli stream processor a consumare saranno gli stream processor, ovunque tu li metta.

Quote:
Due controller di memoria consumano, e ce n'è solo uno.
Se c'è una sola memoria (cosa che già avviene per le UMA) ce n'è solo uno comunque.

Quote:
Il pciE consuma anche lui.
Il PCIe "virtuale", visto che un UMA non è fisicamente connesso a delle lane, quindi la differenza fra "nella CPU" e "nel NB" è nulla.

Quote:
La cache condivisa potrebbe anch'essa aiutare in questo senso.
La cache dei processori è fatta in un certo modo e non ha nulla a che spartire con quella eventuale della GPU, anzi... evitare i cache poisoning può solo che aiutare.

Quote:
E che consumi meno non lo dico io, lo dicono i risultati: senza cambiare architettura AMD ha ottenuto, almeno a quanto dichiarato, risultati davvero insperati.
Ecco, i risultati che AMD, che vuole vendere questa soluzione, ha dichiarato.
E sono gli stessi che sistematicamente barano, anche quando c'è da giocare sporco nei driver per fare qualche frame in più e "vincere" sulla concorrenza.
__________________
A casa ho almeno sette PC, in firma non ci stanno
ConteZero è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 16:47   #53
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14736
Quelle che chiami "nuove e più avveniristiche architetture" è un progetto a lungo termine che AMD porta avanti da tempo e che vede un doppio sviluppo della componente hardware e software come passo essenziale.
L'architettura per far girare i vecchi programmi ci sarà sempre, quello che cambierà sarà ciò che farà girare i nuovi programmi, che sempre più potranno usufruire della cosiddetta accelerazione gpu.

Sarà il tempo a decretare se con questo progetto AMD ha scommesso bene.

E proprio il fatto di partire dalle GPU a rendere tutto questo fattibile: nel frattempo che l'ecosistema non è ancora pronto per un'integrazione totale, il lavoro che viene fatto risulta comunque usufruibile dal lato software come gpgpu generico su schede anche discrete e quindi subito sfruttabile, dal lato hardware come vga integrata.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 17:03   #54
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14736
Quote:
Se il SOI lo applichi al NB e la GPU la metti lì i consumi li riduci in egual misura.
Il processo produttivo permette eguali risparmi, non differenzia fra utilizzi finali.

La "scheda video" è un box nero con su scritto "scheda video", se nella scheda video a consumare sono gli stream processor a consumare saranno gli stream processor, ovunque tu li metta.

Se c'è una sola memoria (cosa che già avviene per le UMA) ce n'è solo uno comunque.

Il PCIe "virtuale", visto che un UMA non è fisicamente connesso a delle lane, quindi la differenza fra "nella CPU" e "nel NB" è nulla.

La cache dei processori è fatta in un certo modo e non ha nulla a che spartire con quella eventuale della GPU, anzi... evitare i cache poisoning può solo che aiutare.
Ma come tu ben sai i northbridge non li fanno con gli ultimi processi produttivi, per motivi di costi.
Ora invece il passaggio a soi e l'integrazione da la possibilità di fare questo passo avanti.

Nella scheda video non consumano solo gli stream processor, ma anche tutto il resto, sia integrato nella gpu (come le rops o come le vuoi chiamare, e quelle rimangono), sia esterno (che trovi nel pcb appunto).

Il pciE che intendo è quello reale, con cui connetteresti una scheda video esterna. Tra l'altro il progetto fusion prevede sempre maggiore integrazione delle componenti, con Fusion II non si potrà più distinguere tra cpu e gpu all'interno del die. Questo è l'obiettivo che si vuole raggiungere.

La gestione dell'utilizzo della cache la lascio agli ingegneri AMD. Se hanno in progetto di condividerla, evidentemente avranno dei vantaggi in tal senso. Non vedo che senso abbia parlare di cache poisoning. Allora eliminiamo direttamente la cache e vedrai che tutti i problemi di cache spariranno!

In generale comunque tutto questo discorso è prematuro. Da un semplice elenco punti dove potrebbero annidarsi i vantaggi di una tecnologia unificata, sei passato a discutere di cose su cui non c'è ancora alcuna base per discutere.
Mi pare che tu voglia per forza vedere negativo, ma in questo momento motivi per farlo non ce ne siano ancora. Vedremo in futuro.

Quote:
Ecco, i risultati che AMD, che vuole vendere questa soluzione, ha dichiarato.
E sono gli stessi che sistematicamente barano, anche quando c'è da giocare sporco nei driver per fare qualche frame in più e "vincere" sulla concorrenza.
Se AMD dichiara certi TDP significa che il calore generato, direttamente legato ai consumi, rimane entro quella soglia. Non si dichiarano TDP sbagliati solo per vendere, perchè altrimenti i computer fondono.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 17:05   #55
ConteZero
Senior Member
 
L'Avatar di ConteZero
 
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
Quote:
Originariamente inviato da calabar Guarda i messaggi
Quelle che chiami "nuove e più avveniristiche architetture" è un progetto a lungo termine che AMD porta avanti da tempo e che vede un doppio sviluppo della componente hardware e software come passo essenziale.
L'architettura per far girare i vecchi programmi ci sarà sempre, quello che cambierà sarà ciò che farà girare i nuovi programmi, che sempre più potranno usufruire della cosiddetta accelerazione gpu.

Sarà il tempo a decretare se con questo progetto AMD ha scommesso bene.

E proprio il fatto di partire dalle GPU a rendere tutto questo fattibile: nel frattempo che l'ecosistema non è ancora pronto per un'integrazione totale, il lavoro che viene fatto risulta comunque usufruibile dal lato software come gpgpu generico su schede anche discrete e quindi subito sfruttabile, dal lato hardware come vga integrata.
L'architettura x86, quella che oggi ti permette di avere sei core in hyperthreading a 3 GHz nasce dal 8086 (e, volendo, da roba ancora precedente) di trent'anni fa... ed è ancora compatibile con esso a livello software.
Che AMD (che, poverina, s'è comprata ATi e deve sopravvivere pur non essendo competitiva come CPU e con un conto in banca che è meno di un decimo quello di Intel) propini e rilanci certe cose è una cosa, che possa poi tirare fuori qualcosa del genere, specie sul medio termine, è un altra.

Qui tu mi parli favolisticamente di integrazioni, aggiunte, mixaggi e via sproloquiando restando simpaticamente al di fuori del dettaglio tecnico, ovvero di COME questa roba dovrebbe venir realizzata, e di come questa roba dovrebbe venir realizzata senza compromettere la compatibilità che ancora oggi è il cuore dei processori x86.

Ok, parliamo di roba nuova e fikissima, ma io qui vedo solo un "sposto un unità funzionale da un chip all'altro, chiamo il tutto fusion e cerco di lanciare l'hype"...
__________________
A casa ho almeno sette PC, in firma non ci stanno
ConteZero è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 17:35   #56
ilmassa1
Member
 
Iscritto dal: Jan 2010
Messaggi: 69
Secondo me quelli della intel si cagano in mano, sapendo che nel lato GPU non hanno niente in mano, e non saranno mai competitivi.
Possono aumentare quanti core vogliono, ma se una APU si comporta così, la vedranno con il canocchiale.
L'unico prob. è che si potrebbe creare un monopolio.
La ATI/AMD pensa già al futuro, e chi fa così, si troverà sempre meglio.
ilmassa1 è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 17:35   #57
Capozz
Senior Member
 
L'Avatar di Capozz
 
Iscritto dal: Aug 2007
Messaggi: 10227
Quote:
Originariamente inviato da ConteZero Guarda i messaggi
L'architettura x86, quella che oggi ti permette di avere sei core in hyperthreading a 3 GHz nasce dal 8086 (e, volendo, da roba ancora precedente) di trent'anni fa... ed è ancora compatibile con esso a livello software.
Che AMD (che, poverina, s'è comprata ATi e deve sopravvivere pur non essendo competitiva come CPU e con un conto in banca che è meno di un decimo quello di Intel) propini e rilanci certe cose è una cosa, che possa poi tirare fuori qualcosa del genere, specie sul medio termine, è un altra.

Qui tu mi parli favolisticamente di integrazioni, aggiunte, mixaggi e via sproloquiando restando simpaticamente al di fuori del dettaglio tecnico, ovvero di COME questa roba dovrebbe venir realizzata, e di come questa roba dovrebbe venir realizzata senza compromettere la compatibilità che ancora oggi è il cuore dei processori x86.

Ok, parliamo di roba nuova e fikissima, ma io qui vedo solo un "sposto un unità funzionale da un chip all'altro, chiamo il tutto fusion e cerco di lanciare l'hype"...
Ma perchè dovrebbe essere sputtanata la compatibilità dei processori x86 ?
Quì si tratta di prendere una cpu x86, lasciarla esattamente com'è, ed integrare una gpu POTENTE (non quelle cagate che fa intel con gli i5) per un certo tipo di calcoli. Non capisco dove sta il problema.
Non ti piace come soluzione e dovevano metterci le SPU sony per farti contento (chissà perchè poi) ?
Ce ne faremo una ragione...
__________________
CM Carbide Air 540 - Thermaltake Toughpower GF A3 1200W - Asus Prime Z690-P D4 - Intel Core i7 14700K - Arctic Liquid Freezer III 280 A-RGB - 32GB Corsair Vengeance LPX 3200 - Gigabyre RTX 5070 Ti SFF - SSD Crucial T500 2TB - AOC Gaming CU34G2X
CM Q500L - OCZ ZT-650W - Asus TUF Gaming A520M Plus - AMD Ryzen 5500 - 32GB Corsair Vengeance LPX 3200 - RTX 2070 Super ROG Strix - SSD Samsung 970 EVO Plus 1TB - ASUS TUF Gaming VG27AQ1A 27"
Capozz è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 17:51   #58
ConteZero
Senior Member
 
L'Avatar di ConteZero
 
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
Quote:
Originariamente inviato da ilmassa1 Guarda i messaggi
Secondo me quelli della intel si cagano in mano, sapendo che nel lato GPU non hanno niente in mano, e non saranno mai competitivi.
Possono aumentare quanti core vogliono, ma se una APU si comporta così, la vedranno con il canocchiale.
L'unico prob. è che si potrebbe creare un monopolio.
La ATI/AMD pensa già al futuro, e chi fa così, si troverà sempre meglio.
AMD non rinuncerà mai a fare GPU che girino bene su piattaforma Intel, sarebbe un suicidio economico.
Ed nVidia è sempre lì, anche se spesso perde colpi una volta ogni tanto una l'azzecca.

Quote:
Originariamente inviato da Capozz Guarda i messaggi
Ma perchè dovrebbe essere sputtanata la compatibilità dei processori x86 ?
Quì si tratta di prendere una cpu x86, lasciarla esattamente com'è, ed integrare una gpu POTENTE (non quelle cagate che fa intel con gli i5) per un certo tipo di calcoli. Non capisco dove sta il problema.
Non ti piace come soluzione e dovevano metterci le SPU sony per farti contento (chissà perchè poi) ?
Ce ne faremo una ragione...
Infatti l'amico calabar parlava delle evoluzioni future.
__________________
A casa ho almeno sette PC, in firma non ci stanno
ConteZero è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 18:00   #59
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14736
@ConteZero
Si, ma non ho mai detto che le evoluzioni future avrebbero perso di compatibilità.
Semplicemente, strada tra l'altro già in parte intrapresa da bulldozer, le cpu amd avrebbero potenziato quella parte della cpu più general purpose e relegato il potenziamento del resto all'unità gpu.
Oddio, non è proprio così semplice, ma è giusto per capirci.

PS: so cosa sia la isa x86... e un 8086 l'ho avuto quando ancora i pc erano poco diffusi (mitico olivetti M240!), e ho avuto in mano anche un bell'8088
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 11-06-2010, 18:15   #60
ConteZero
Senior Member
 
L'Avatar di ConteZero
 
Iscritto dal: Dec 2006
Città: Trapani (TP)
Messaggi: 3098
Sugli XT c'ho combattuto anch'io... il punto è che, piuttosto, quel che dice AMD ha molto senso dal punto di vista del "marketing" ma sul versante pratico non vuol dire una cippa.
Regaleremo più performance all'ambito GPU... che vuol dire ?
Mi metti un core RV vicino alla CPU ? Che me ne faccio, tanto vale che mi fai una scheda acceleratrice e la piazzo sullo slot PCIe...


Cioè, si, capisco, vende bene, specie quando si tratta di numeri "sulla carta"... ma in pratica è vaporware.
__________________
A casa ho almeno sette PC, in firma non ci stanno
ConteZero è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Micron e millisecondi: la piattaforma ServiceNow guida l'infrastruttura IT di Aston Martin F1 Micron e millisecondi: la piattaforma ServiceNow...
ASUS GeForce RTX 5080 Noctua OC Edition: una custom fenomenale, ma anche enorme ASUS GeForce RTX 5080 Noctua OC Edition: una cus...
Dreame Aqua10 Ultra Roller, la pulizia di casa con un rullo Dreame Aqua10 Ultra Roller, la pulizia di casa c...
Recensione Realme 15 Pro Game Of Thrones: un vero cimelio tech per pochi eletti Recensione Realme 15 Pro Game Of Thrones: un ver...
GIGABYTE GAMING A16, Raptor Lake e RTX 5060 Laptop insieme per giocare al giusto prezzo GIGABYTE GAMING A16, Raptor Lake e RTX 5060 Lapt...
Sabotati dall'interno: il flop di MindsE...
Intel Arc, il futuro è nebuloso: ...
TikTok cambia ancora le regole sulla pri...
The Outer Worlds 2: RPG vecchio stile, o...
1,9 miliardi in fumo (per ora): l'attacc...
Gli utenti di Steam possono monitorare l...
Dal digitale all'auto: HONOR e BYD insie...
Noctua compie 20 anni e festeggia con un...
Atari 2600+ PAC-MAN Edition torna in gra...
Xiaomi TV F Pro 75'' a 599€: il maxi sch...
Nissan Sakura si ricarica da sola: arriv...
PS6 non potrà puntare solo sulla ...
Project Bromo, Europa unita nello spazio...
Paint introduce Restyle: l'intelligenza ...
Il computer quantistico di Google sarebb...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 18:59.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1