Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese di utilizzo intensivo e l'analisi di oltre 50 scatti, l'articolo offre una panoramica approfondita di Nintendo Switch 2. Vengono esaminate le caratteristiche che la definiscono, con un focus sulle nuove funzionalità e un riepilogo dettagliato delle specifiche tecniche che ne determinano le prestazioni
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 21-06-2007, 08:46   #21
Rubberick
Senior Member
 
L'Avatar di Rubberick
 
Iscritto dal: Nov 2002
Messaggi: 11738
Ottimo articolo, molto interessante... io all'inzio quando ho visto quei rack ho detto: mado' ma che devono renderizzare opengl su un 2000pollici?
Rubberick è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 08:46   #22
Dix 3
Senior Member
 
L'Avatar di Dix 3
 
Iscritto dal: Jan 2002
Messaggi: 1024
comunque interessante anche la ps3 che da sola fa registrare più della meta dei tflop totali..
Non male
Dix 3 è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 08:55   #23
NeoLeo19
Member
 
L'Avatar di NeoLeo19
 
Iscritto dal: Oct 2005
Messaggi: 76
Quote:
Originariamente inviato da mDsk Guarda i messaggi
se per surclassare intendi rimpiazzare io penso proprio di no... come detto nell'articolo alcuni calcoli le gpu sono incapaci difarli, gpu e cpu lavoreranno insieme sempre magari meglio con una soluzione tipo fusion di amd dove gpu e cpu saranno integrate nello stesso pacage... figo...

tipo in un pacage 4 core cpu e 8 gpu collegate fra loro via ht mamma mia... il futuro non richiederà schede video separate...
ovvio...volevo intendere che ormai una gpu (secondo la mia ignoranza) è tecnicamente molto avanti...e non credo che intel fallirà...forse un giorno ci saranno chip supermulticore multiTUTTO ... ...
__________________
ASUS P4P800 - Pentium IV 478 2.8Gh - 2x V-Data da 512Mb PC3200 + 2x Apacer da 512Mb PC3200 (latenze 2.5-3-3-7) - MSI NX6800@16.6 400/900 - 2xHDD Maxtor DMaxPlus9 SATA in RAID0
un PC che ancora mi soddisfa
NeoLeo19 è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 09:03   #24
mDsk
Member
 
L'Avatar di mDsk
 
Iscritto dal: Oct 2005
Città: Palermo
Messaggi: 173
Quote:
Originariamente inviato da NeoLeo19 Guarda i messaggi
ovvio...volevo intendere che ormai una gpu (secondo la mia ignoranza) è tecnicamente molto avanti...e non credo che intel fallirà...forse un giorno ci saranno chip supermulticore multiTUTTO ... ...
io penso un altra cosa ma prima o poi si fermeranno?
ci sarà un limite a tutta sta tcnologia?
voglio dire ad un certo punto si fermano o si stufano e ricominciano ad utilizzare il pallottoliere carta e penna per poi ricominciare da capo o no?

la cosa del fotorealismo mica mi garba tanto.!. lasciando a parte il fattore scientifico di cui parla l'articolo i giochi fotorealistici intendo... saranno divertenti? mi sa che a quei tempi mi guarderò un film no?

scusate... una parentesi forse demenziale!!!
mDsk è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 09:35   #25
massidifi
Senior Member
 
L'Avatar di massidifi
 
Iscritto dal: Nov 2000
Città: Casalbordino (CH)
Messaggi: 1966
Secondo me molte persone fanno ancora un po di confusione:
Le CPU di intel e AMD non sono tecnologicamente inferiori alle GPU di ATI e nVidia... sono semplicemte differenti create per eseguire calcoli completamente differenti...
... e come paragonare un motore a benzina e uno diesel... siccome il motore benzina eroga piu cavalli questo non significa che il motore diesel sia inferiore a livello tecnologico...

E cmq come detto anche nell'articolo le gpu non sostituiranno mai le cpu perche incapaci di eseguire detrminati calcoli che invece le cpu eseguono egregiamente...
massidifi è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 10:13   #26
akfhalfhadsòkadjasdasd
 
Messaggi: n/a
Quote:
Originariamente inviato da NeoLeo19 Guarda i messaggi
ovvio...volevo intendere che ormai una gpu (secondo la mia ignoranza) è tecnicamente molto avanti...e non credo che intel fallirà...forse un giorno ci saranno chip supermulticore multiTUTTO ... ...
gpu e cpu sono ambedue processori, la gpu è progettata per fare velocemente un certo tipo di calcolo. Il concetto progettuale di una cpu (i nostri amd e intel) è fare da elaboratore centrale, ed per l'appunto la "central processing unit", normalmente la troviamo general purpose, perchè è vantaggioso che sappia fare tutto abbastanza velocemente.

Una gp-gpu o gpu di oggi non sarebbe più da chiamarsi tale se saprebbe anche fare meglio tutto ciò che oggi fa bene una cpu.

in folding at home la ps3 se la sta cavando bene per la sua cpu: CELL (s non erro...) che è una cpu costituita da un controllo a processore general purpose e sotto componenti DSP che sono processori non general purpose, ma assai più veloci ad esempio nel rendering.
attualmente io vedo con favore una arichitettura alla CELL nelle nostre cpu di casa: un misto tra general purpose e processori specializzati
  Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 10:28   #27
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
comunque interessante anche la ps3 che da sola fa registrare più della meta dei tflop totali..
Per forza, per cos'altro vuoi che la usino quelli che la comprano?

Invece, "normalizzando" i valori a sistema:

Playstation3: 0,018073585 TFLOPS
ATI Radeon: 0,059178744 TFLOPS

La Radeon ha prestazioni circa di 3x rispetto al Cell, con folding.
(il Cell forse è più general purpose?)

L'idea di AMD è quella di integrare "core" da GPU nella CPU in maniera progressiva, in modo da favorire la transizione per i programmatori: all'inizio Fusion sarà per gli ultraportatili con poche pretese grafiche, poi, il suo core "GPU" verrà usato per far conti, fino ad arrivare a pensare a una CPUGPU come un'architettura x86... + shader ^^

Cell è una idea elegante... ma non è x86. Forse all'epoca del suo concepimento non si pensava che si sarebbe andati sul "multicore spinto"

Forse si profilerà un Cell vs Fusion anche nei settori fuori dal PC, per cui il Cell era stato pensato.
Il guaio è che li produrrà entrambi IBM.

Spero che AMD non fallisca prima.

Ultima modifica di Mercuri0 : 21-06-2007 alle 10:45.
Mercuri0 è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 11:05   #28
akfhalfhadsòkadjasdasd
 
Messaggi: n/a
Quote:
Originariamente inviato da Mercuri0 Guarda i messaggi
Per forza, per cos'altro vuoi che la usino quelli che la comprano?

Invece, "normalizzando" i valori a sistema:

Playstation3: 0,018073585 TFLOPS
ATI Radeon: 0,059178744 TFLOPS

La Radeon ha prestazioni circa di 3x rispetto al Cell, con folding.
(il Cell forse è più general purpose?)
io non sono ne consolaro ne sonaro... ma un CELL a 599 euro... beh yummmmy!!

cmq un CELL è ovviamente più general purpose di una gpu °___°

Quote:
L'idea di AMD è quella di integrare "core" da GPU nella CPU in maniera progressiva, in modo da favorire la transizione per i programmatori: all'inizio Fusion sarà per gli ultraportatili con poche pretese grafiche, poi, il suo core "GPU" verrà usato per far conti, fino ad arrivare a pensare a una CPUGPU come un'architettura x86... + shader ^^

Cell è una idea elegante... ma non è x86. Forse all'epoca del suo concepimento non si pensava che si sarebbe andati sul "multicore spinto"

Forse si profilerà un Cell vs Fusion anche nei settori fuori dal PC, per cui il Cell era stato pensato.
Il guaio è che li produrrà entrambi IBM.

Spero che AMD non fallisca prima.
intanto su Cell c'è linux
cosa buona e giusta poi per poter usufruire di vecchio software basato su x86 penso che sarà sufficiente una macchina virtuale se l'hw di sotto sarà sufficientemente potente, altrimenti riscriviamo tutto... più lavoro per noi

fusion o cell? il primo come dici tu lo vedo bene all'insegna di una maggiore efficienza sia di calcolo che di consumi per ambito home... il secondo lo vedo molto più un lavoratore da blade server... come effettivamente sta facendo ibm. ora come ora non saprei se entrano in combutta.

piùttosto chi pensi che la spunta in relazione al supporto per lo sviluppo di applicazioni gp-gpu tra ati nvidia e intel? a livello di set istruzioni dovrebbero essere tutti incompatibili tra di loro
  Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 11:33   #29
Cottonbit
Junior Member
 
Iscritto dal: Jul 2006
Città: Arezzo
Messaggi: 9
Splendido articolo. Per le simulazioni complesse risparmio del 1500% sugli ETA e risparmione galattico sui costi di laboratorio. Senza parlare della multiscalarità delle soluzioni, che permetterà alle università di comprare a moduli, risparmiando ancora di più.
Era ora.
Cottonbit è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 11:37   #30
biffuz
Senior Member
 
L'Avatar di biffuz
 
Iscritto dal: Jul 2001
Messaggi: 3479
Ma non pensate solo all'ambito scientifico: ricordatevi che grafica e video in generale usano lo stesso tipo di calcoli (infatti di schede video stiamo parlando).
OSX ad esempio ha le librerie Core Image che sfruttano la GPU per queste elaborazioni.
biffuz è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 12:53   #31
blackshard
Senior Member
 
L'Avatar di blackshard
 
Iscritto dal: Jan 2002
Città: non ti interessa
Messaggi: 5603
A parte che mi meraviglio che nessun abbia notato prima che il primo e il terzo capoverso delle conclusioni sono abbastanza uguali

E comunque fa cadere le braccia leggere sempre gli stessi commenti di chi non ha capito proprio niente di questo approccio e continua a dire che le GPU sono più potenti delle CPU, e bla bla bla. A tutti questi consiglio di andare a rileggersi (o magari a leggersi per la prima volta...) l'articolo perché nella prima pagina vengono spiegate le differenze fra CPU e GPU, anche corredate da un bell'esempio avionico a prova di utonto.

Ad ogni modo mi sono sorti alcuni dubbi: se G80 ha tutta questa potenza, come mai non esiste il client per Folding@Home per nVidia? Io ricordo che ai tempi la motivazione ufficiale riguardava le prestazioni non all'altezza delle GPU ATi. E questo è il primo dubbio.
Il secondo dubbio, più che altro una considerazione, riguarda le prestazioni. Nel primo paragrafo di pagina 2 si parla delle soluzione con due schede Tesla C870 che raggiungono 1 GigaFLOP, mentre a pagina 5 G80 è posizionato da nVidia a livello di 300 GigaFLOP... e son tantini!
blackshard è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 12:54   #32
El Bombastico
Member
 
L'Avatar di El Bombastico
 
Iscritto dal: Jun 2007
Messaggi: 236
ve lo immaginate un supercomputer tipo BlueGene con a posto dei processori IBM questi mostri qui? consumi enormi ma Petaflops a volontà! (e magari la notte i ricercatori ci giocano a Crysis :-D )
El Bombastico è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 13:07   #33
demon77
Senior Member
 
L'Avatar di demon77
 
Iscritto dal: Sep 2001
Città: Saronno (VA)
Messaggi: 21702
In tutti i pc!

La potenza delle gpu è ben nota.. il problema è che la sfruttano solo alcuni specifici programmi progettati per un determinato tipo di GPU.

Questo è davvero uno spreco pazzesco.. potentissime gpu gia saldamente alloggiate nei nostri pc che non fanno NULLA tranne quando si gioca..

La ver svolta è una sola: il supporto nativo della gpu a livello di sistema operativo!
Un insieme di librerie standard comuni a tutti sulle quali basarsi per sfruttare attivamente la GPU in qualsiasi applicazione!

Potremmo chiamarle DIRECTX 11 !!

Poi sai che svolta di prestazioni? Ogni volta che scattano i calcoli "pesanti" la GPU fa il lavoro e la cpu coordina e si occupa del resto.. anche un pc entry level potrebbe gestire adeguatamente pesanti conversioni video!
demon77 è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 13:12   #34
songoge
Member
 
Iscritto dal: Nov 2001
Messaggi: 206
Bell'articolo. Strano che si stia iniziando solo adesso ad utilizzare le GPU per calcoli scientifici. Comunque per il futuro io vedo meglio la soluzione Fusion di AMD. La GPGPU ha sempre bisogno di una CPU per fare le sue elaborazioni, quindi si perde un casino di tempo per far arrivare i dati tramite PCI-ex2 alle GPGPU. In Fusion il problema non si pone, perchè i due saranno uniti insieme nello stesso zoccolo.
Inoltre per previsioni ancora più future si parla di Unità specializzate. Magari avremo CPU, GPU, Physic e IA tutto insieme. Un mostro!
songoge è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 13:12   #35
Paolo Corsini
Amministratore
 
L'Avatar di Paolo Corsini
 
Iscritto dal: Jul 1999
Città: Luino
Messaggi: 4838
Quote:
Originariamente inviato da blackshard Guarda i messaggi
A parte che mi meraviglio che nessun abbia notato prima che il primo e il terzo capoverso delle conclusioni sono abbastanza uguali
Sistemato adesso, mi è rimasta una parte in un copia e incolla ieri sera in fase di rilettura
__________________
"I decided to go for a little run." - Follow me on Strava
Paolo Corsini è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 13:28   #36
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da trias Guarda i messaggi
io non sono ne consolaro ne sonaro... ma un CELL a 599 euro... beh yummmmy!!
intanto su Cell c'è linux
Anche per x86. E le applicazioni di calcolo intensivo non ce le fai girare su un'altra architettura virtualizzata
Quote:
più lavoro per noi
Ah, informatico (brutta razza*) lavoro ne avrete comunque a parallelizzare per più core. In bocca al lupo.
Forse anzi le GPGPU vi vengono incontro, ho il sospetto che sia più facile programmare uno stream processor che 20 CPU in parallelo...
Quote:
fusion o cell? il primo come dici tu lo vedo bene all'insegna di una maggiore efficienza sia di calcolo che di consumi per ambito home...
Quoto, ma questo era anche lo scopo di Cell. In effetti mi riferivo sopratutto a questo.
Quote:
il secondo lo vedo molto più un lavoratore da blade server... come effettivamente sta facendo ibm. ora come ora non saprei se entrano in combutta.
Però alcuni degli ultimi supercomputer di IBM usano un pòpò di Opteron in tantem con un pòpò di Cell. Non fa venire il sospetto che un pòpò di Opteron più un pòpò di "GPU" sia più efficiente? (anche se a quel livello magari contano anche tanto le "connessioni")

Insomma, secondo me il Cell vs Fusion è leggittimo
(anche se per "fusion" intendo l'idea più che il primo Fusion vero)

Quote:
piùttosto chi pensi che la spunta in relazione al supporto per lo sviluppo di applicazioni gp-gpu tra ati nvidia e intel? a livello di set istruzioni dovrebbero essere tutti incompatibili tra di loro
Di set di istruzioni GPU non ne capisco un tubo. Comunque il fatto che i giochi (e i loro shader) girino su varie schede grafiche è incoraggiante.

Inoltre (da quel che so) AMD rende disponibile una libreria di funzioni ad alto livello per i calcoli su GPGPU. Trovo molto possibile che più che sulle "istruzioni" ci si baserà su librerie di questo tipo, e in questo senso va letta la recente apertura all'OpenSource di AMD.
Tutti hanno pensato: driver OpenSource! Invece mi sa che è: "Ehi raga ci giocate un pò con gli stream processor così poi noi ci troviamo librerie superottimizzate per il calcolo e voi know-how sui nostri prodotti?".

E' ovvio che Linux da questo punto di vista è una piattaforma importante, quindi immagino che Intel e nVidia seguiranno presto.

Solo che nVidia non ha anche una CPU nel portfolio...


p.s. su arstechnica c'era un bell'articolo sulla radeon 2900 anche in questa prospettiva.

*più avanti si va, più gli elettronici si fanno il e gli informatici godono e sprecano
__________________
flìckr
Mercuri0 è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 13:29   #37
Paolo Corsini
Amministratore
 
L'Avatar di Paolo Corsini
 
Iscritto dal: Jul 1999
Città: Luino
Messaggi: 4838
Quote:
Originariamente inviato da songoge Guarda i messaggi
Bell'articolo. Strano che si stia iniziando solo adesso ad utilizzare le GPU per calcoli scientifici. Comunque per il futuro io vedo meglio la soluzione Fusion di AMD. La GPGPU ha sempre bisogno di una CPU per fare le sue elaborazioni, quindi si perde un casino di tempo per far arrivare i dati tramite PCI-ex2 alle GPGPU. In Fusion il problema non si pone, perchè i due saranno uniti insieme nello stesso zoccolo.
Fusion è chiaramente orientato a sistemi integrati di basso costo; unire CPU di fascia alta e GPU di fascia alta in un unico Die, a prescindere da problemi di rese produttivi, sarebbe tecnologicamente troppo. AMD in più occasioni ha rimarcato come Fusion sia orientato a quel genere di mercato, e continuerà a sviluppare GPU discrete.
__________________
"I decided to go for a little run." - Follow me on Strava
Paolo Corsini è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 14:49   #38
blackshard
Senior Member
 
L'Avatar di blackshard
 
Iscritto dal: Jan 2002
Città: non ti interessa
Messaggi: 5603
Quote:
Originariamente inviato da Paolo Corsini Guarda i messaggi
Fusion è chiaramente orientato a sistemi integrati di basso costo; unire CPU di fascia alta e GPU di fascia alta in un unico Die, a prescindere da problemi di rese produttivi, sarebbe tecnologicamente troppo. AMD in più occasioni ha rimarcato come Fusion sia orientato a quel genere di mercato, e continuerà a sviluppare GPU discrete.
Già. Forse sarebbe più corretto pensare a torrenza dove queste soluzioni potrebbero essere rappresentate da coprocessori.
blackshard è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 15:29   #39
GiacoXp
Senior Member
 
L'Avatar di GiacoXp
 
Iscritto dal: Sep 2004
Città: Brescia
Messaggi: 6574
una cosa non riesco a capire ... come fa il sistema di elaborazione a collegarsi alla pci express ?

GiacoXp è offline   Rispondi citando il messaggio o parte di esso
Old 21-06-2007, 16:16   #40
gabi.2437
Senior Member
 
L'Avatar di gabi.2437
 
Iscritto dal: Sep 2006
Messaggi: 6964
Bell'articolo

Le schede video dispongono di una potenza incredibile, va sfruttata, per ora ben poche cose lo fanno, vedi folding@home...dove 1 sola scheda video tira come 50 processori o 3 PS3...
gabi.2437 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
vivo X200 FE: il top di gamma si è fatto tascabile? vivo X200 FE: il top di gamma si è fatto ...
2 minuti: il tempo per scorrere le 25 of...
Mini LED TCL: confronto tra le migliori ...
Robot aspirapolvere: questi sono i più a...
Portatile tuttofare Lenovo Core i5/16GB ...
Scende a 99€ il tablet 11" 2,4K con...
Amiga: quali erano i 10 giochi più belli
Driver più sicuri: Microsoft alza...
Ego Power+ ha la giusta accoppiata per l...
Scompiglio nei listini Amazon: prezzi im...
Sotto i 105€ il robot Lefant che lava, a...
Mini proiettori smart in offerta: uno co...
Smartwatch Amazfit in offerta: Balance o...
Windows XP ritorna: ecco come usarlo sub...
Arrow Lake in saldo: Intel taglia i prez...
LG C4 da 55'' a 899€ è il top per...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 13:18.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1