Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
AMD ha aggiornato l'offerta di CPU HEDT con i Ryzen Threadripper 9000 basati su architettura Zen 5. In questo articolo vediamo come si comportano i modelli con 64 e 32 core 9980X e 9970X. Venduti allo stesso prezzo dei predecessori e compatibili con il medesimo socket, le nuove proposte si candidano a essere ottimi compagni per chi è in cerca di potenza dei calcolo e tante linee PCI Express per workstation grafiche e destinate all'AI.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 06-11-2008, 13:31   #21
nexor
Member
 
L'Avatar di nexor
 
Iscritto dal: Nov 2002
Messaggi: 216
Ma Apple per snow leopard (o come si chiama), che dovrebbe usare le gpu per alcune operazioni, si sa che linguaggio stia usando?
Non credo si pieghino a usare cuda se li costringe a legarsi ad nvidia, perciò magari stanno usando soluzioni alternative che si potrebbero espandere a linux e poi altrove come è successo in passato, possibile?
nexor è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 13:32   #22
Marco71
Senior Member
 
Iscritto dal: Nov 2003
Città: Provincia di Lucca
Messaggi: 3455
Dipende tutto...

...dal numero di transistor disponibili/deputati in questo caso al calcolo in virgola mobile/calcolo vettoriale precipuo degli ambienti di supercomputing.
Una c.p.u general purpose come quelle che equipaggiano gli odierni (diciamo in ambito x86 a partire dall'8080 in poi...anche se la prima c.p.u con I.S.A x86 fu l'8086 e la sua variante con bus dati ad 8 bit 8088) nostri personal computer dovendo essere un "uomo per tutte le stagioni" possiede al suo interno un numero ridotto di unità f.p.u, s.i.m.d (queste molto spesso funzionano utilizzando un microcodice con relativo sequencer invece di una implementazione hard-wired che farebbe aumentare il numero di transistor (M.O.S) a dismisura).
Questo ante-Nehalem...se con Nehalem Intel riproporrà un paradigma già sperimentato con l'80860 (e suoi derivati) di nuovo la c.p.u tornerà ad essere e caratterizzarsi per ciò che esprime il suo acronimo: central processing unit...
Personalmente io sono (problemi tecnologici a parte) per la massima integrazione possibile...come per l'unità (o le unità) centrali a rete neurale con elementi non specializzati tipici dell'universo "Terminator" per intenderci ove sono possibili elaborazioni di ogni tipo e su qualsiasi dominio: grafico, di calcolo balistico, di elaborazione di dati provenienti da sensori, di calcolo numerico puro ecc. ecc.
Ovviamente la fame di dati da elaborare presuppone che la c.p.u o g.p.u che sia, non abbia uno dei limiti delle architetture di computer secondo Von Neumann e cioè la velocità, ampiezza di banda da e verso i banchi di memoria centrale...che sarebbe auspicabile poter un giorno integrae pure essi in una c.p.u...
Un Intel i800 con memoria interna (a questo punto non "cache" come intesa oggi) di qualche PiB, qualche centinaia di migliaia di unità di processo general purpose connesse secondo un ipercubo a dimensioni (fate voi quante) potrebbe divenire una ottima "piattaforma" per un "calcolatore universale" che probabilmente potrebbe superare il test di Turing.
Il sistema C.U.D.A di NVidia Corp. mi "intrippa" non poco...slurp...
Peccato che A.M.D ancora latiti in questo settore...per B.O.I .N.C sarebbe una vera rivoluzione...in Seti@home si potrebbe finalmente fare uso della trasformata di Karhunen-Loève in luogo dell'ubiquo utilizzo che si fa invece della trasformata discreta con algoritmi di F.F.T.
Grazie.

Marco71.
Marco71 è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 13:38   #23
!fazz
Moderatore
 
L'Avatar di !fazz
 
Iscritto dal: Nov 2006
Messaggi: 21702
Quote:
Originariamente inviato da nexor Guarda i messaggi
Ma Apple per snow leopard (o come si chiama), che dovrebbe usare le gpu per alcune operazioni, si sa che linguaggio stia usando?
Non credo si pieghino a usare cuda se li costringe a legarsi ad nvidia, perciò magari stanno usando soluzioni alternative che si potrebbero espandere a linux e poi altrove come è successo in passato, possibile?
un suo linguaggio: openCL
__________________
"WS" (p280,cx750m,4790k+212evo,z97pro,4x8GB ddr3 1600c11,GTX760-DC2OC,MZ-7TE500, WD20EFRX)
Desktop (three hundred,650gq,3800x+nh-u14s ,x570 arous elite,2x16GB ddr4 3200c16, rx5600xt pulse P5 1TB)+NB: Lenovo p53 i7-9750H,64GB DDR4,2x1TB SSD, T1000
!fazz è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 13:57   #24
nexor
Member
 
L'Avatar di nexor
 
Iscritto dal: Nov 2002
Messaggi: 216
Quote:
Originariamente inviato da !fazz Guarda i messaggi
un suo linguaggio: openCL
Ok, grazie!
Vedo su Wikipedia che lo supporta anche AMD, e su linux già ci si muove... quindi forza openCL e abbasso CUDA!

Comunque sia spero che il gpgpu prenda piede presto.
__________________
CPU: AMD Athlon XP-M 2600+ @220x10=2200 Mhz |Mobo : ASUS A7N8X-E Deluxe, bios 1013 tratsmod | RAM : 2x1Gb DDR440 Patriot DC cas 2.5 | HD : 2X Maxtor Dmax 9 160Gb | VGA: Geffo 6800le@ 12/6 350/940 | Drives : Nec ND-3500A | Case: Colorsit MidiTower, Ali Seasonic SS400
nexor è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 13:59   #25
!fazz
Moderatore
 
L'Avatar di !fazz
 
Iscritto dal: Nov 2006
Messaggi: 21702
Quote:
Originariamente inviato da nexor Guarda i messaggi
Ok, grazie!
Vedo su Wikipedia che lo supporta anche AMD, e su linux già ci si muove... quindi forza openCL e abbasso CUDA!

Comunque sia spero che il gpgpu prenda piede presto.
io aspetto snow leopard, lascio passare un paio di mesi e abbandono tiger se il gpgpu fà quel che promette
__________________
"WS" (p280,cx750m,4790k+212evo,z97pro,4x8GB ddr3 1600c11,GTX760-DC2OC,MZ-7TE500, WD20EFRX)
Desktop (three hundred,650gq,3800x+nh-u14s ,x570 arous elite,2x16GB ddr4 3200c16, rx5600xt pulse P5 1TB)+NB: Lenovo p53 i7-9750H,64GB DDR4,2x1TB SSD, T1000
!fazz è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 14:12   #26
II ARROWS
Bannato
 
L'Avatar di II ARROWS
 
Iscritto dal: Aug 2005
Città: Buguggiate(VA)
Messaggi: 12007
Ero rimasto che qualche mese fa annunciavano il lavoro sulle schede nVidia, non avevo letto nulla sulla disponibilità del programma funzionante.

E poi, dire che va meglio dipende sempre dalle schede che usi. Se prendi una 280 e la metti a confronto con una X1900 è normale. Se lo fai da 280 contro HD4870x2 è un altro.
II ARROWS è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 14:20   #27
oclla
Senior Member
 
L'Avatar di oclla
 
Iscritto dal: May 2004
Città: Stra (VE)
Messaggi: 5590
Bello. Mooolto molto bello.
Mi piacerebbe finire a lavorare sulle schedozze video.. anche se mettere le mani su veri supercomputer è stato entusiasmante..

Quote:
Originariamente inviato da lowenz Guarda i messaggi
Da quel che mi dicono dalla regia ci sono già 10 tesi al PoliMI sul GPU Computing.....e se per caso poi si allacciassero agli applicativi più classicamente da informatici quelli di telecomunicazioni e biomedica (bioimmagini ad esempio) il gioco è fatto
per esempio...

Quote:
Originariamente inviato da giovannifg Guarda i messaggi
Scusate l'ignoranza, ma qualcuno potrebbe con calma e ordine elencare i vantaggi di far eseguire certe operazioni alla GPU anzinchè alla CPU? E quali sono esattamente queste operazioni? A quanto ho capituo, il transcoding di video è sicuramente una di queste... ma le altre?
Quote:
Originariamente inviato da giovannifg Guarda i messaggi
Grazie per la risposta! E questo non è possibile con le CPU? Insomma, a livello costruttivo, quali sarebbero le differenze principali? Perchè una GPU è più indicata per questo tipo di calcoli rispetto ad una CPU?
Estremamente concentrato:
Un processore ha una (anche due) unità di calcolo, una scheda video ne ha centinaia. (112 la mia per esempio.. 240 la gtx280).

Quando si tratta di fare tante tante operazioni (simili), una vga ne fa appunto centinaia alla volta
oclla è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 14:38   #28
SwatMaster
Senior Member
 
L'Avatar di SwatMaster
 
Iscritto dal: Aug 2008
Città: Busto Arsizio (Va)
Messaggi: 4381
Mhmh... And where's Ati?
__________________
NZXT H7 Flow RGB | CoolerMaster SilentPro M 850W | Asus ROG Strix X370-I Gaming | AMD Ryzen 7 5800x, NZXT Kraken x62 | G.Skill Trident-Z DDR4 2x16GB 3600Mhz | PowerColor Reaper AMD RX 9070XT | WD Black SN850X 2TB | SteelSeries Siberia V2, Logitech G513, SteelSeries Rival 600, Corsair MM200 | Dell U2515H
SwatMaster è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 15:28   #29
wlog
Bannato
 
Iscritto dal: Oct 2008
Messaggi: 558
Quote:
Originariamente inviato da nexor Guarda i messaggi
Ok, grazie!
Vedo su Wikipedia che lo supporta anche AMD, e su linux già ci si muove... quindi forza openCL e abbasso CUDA!

Comunque sia spero che il gpgpu prenda piede presto.
il problema è che opencl non è ancora maturo e adatto alla produzione di codice
wlog è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 15:32   #30
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Chi porta soldi è sempre ben accetto. Venghino venghino che abbiamo bisogno!

Quote:
Originariamente inviato da nexor Guarda i messaggi
Ma Apple per snow leopard (o come si chiama), che dovrebbe usare le gpu per alcune operazioni, si sa che linguaggio stia usando?
Non credo si pieghino a usare cuda se li costringe a legarsi ad nvidia, perciò magari stanno usando soluzioni alternative che si potrebbero espandere a linux e poi altrove come è successo in passato, possibile?
Apple sta per lanciare un linguaggio chiamato OpenCL che sarà supportato da AMD & nVidia. E direi pure lntel.

La cosa molto figa, è che Apple (bontà sua!) ha proposto OpenCL come standard al Khronos Group, un'organizzazione a cui partecipano tutti (i tre di sopra più tanti altri tra hardwaristi e softwaristi. C'è anche Blizzard, per dire), e che tra le altre cose gestisce anche OpenGL.

Il supporto di OpenCL su Linux è legato solo alla volontà di AMD e nVidia di scrivere i driver, che di certo non mancherà.

Su Windows è uguale, non c'è nessun problema tecnico ma al massimo politico.

edit: in effetti, mi sento di essere grato ad Apple, per questa volta.

edit2: Blizzard ha le mani in pasta nel gruppo che decide le specifiche dell'OpenGL, e i suoi programmatori vanno in giro a fare conferenze su come si programma la grafica dei giochi. Non si direbbe, eh?

Simpaticissime le risposte quando il loro uomo posta sui forum di OpenGL. "Si, si, grazie Rob ma adesso fila a lavorare a Diablo 3"

Ultima modifica di Mercuri0 : 06-11-2008 alle 15:46.
Mercuri0 è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 15:41   #31
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da giovannifg Guarda i messaggi
Scusate l'ignoranza, ma qualcuno potrebbe con calma e ordine elencare i vantaggi di far eseguire certe operazioni alla GPU anzinchè alla CPU? E quali sono esattamente queste operazioni? A quanto ho capituo, il transcoding di video è sicuramente una di queste... ma le altre?
In campo scientifico troverà di certo interessanti applicazioni, sopratutto per quei conti che tipicamente durano ore o giorni.

In campo desktop, "boh". Si parla di trascodifica video, editing immagini (su questo ho molte speranze), forse editing video, e se tutto va bene rendering 3D.

Del resto quali sono le altre applicazioni Desktop per cui serve potenza di calcolo al giorno d'oggi? (per l'editing audio ormai abbiamo CPU da buttare)

Però siamo ancora ai primissimi passi, e bisogna aspettare che il "fumo" si diradi per vedere dove sarà davvero utile la GPU, e dove conviene un buon procio.

Ci sta inoltre che le GPU future saranno ancora più flessibili, proprio per facilitare queste applicazioni.
Mercuri0 è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 16:21   #32
^^lee
Member
 
Iscritto dal: Nov 2007
Messaggi: 166
...dal numero di transistor disponibili/deputati in questo caso al calcolo in virgola mobile/calcolo vettoriale precipuo degli ambienti di supercomputing.
Una c.p.u general purpose come quelle che equipaggiano gli odierni (diciamo in ambito x86 a partire dall'8080 in poi...anche se la prima c.p.u con I.S.A x86 fu l'8086 e la sua variante con bus dati ad 8 bit 8088) nostri personal computer dovendo essere un "uomo per tutte le stagioni" possiede al suo interno un numero ridotto di unità f.p.u, s.i.m.d (queste molto spesso funzionano utilizzando un microcodice con relativo sequencer invece di una implementazione hard-wired che farebbe aumentare il numero di transistor (M.O.S) a dismisura).
Questo ante-Nehalem...se con Nehalem Intel riproporrà un paradigma già sperimentato con l'80860 (e suoi derivati) di nuovo la c.p.u tornerà ad essere e caratterizzarsi per ciò che esprime il suo acronimo: central processing unit...
Personalmente io sono (problemi tecnologici a parte) per la massima integrazione possibile...come per l'unità (o le unità) centrali a rete neurale con elementi non specializzati tipici dell'universo "Terminator" per intenderci ove sono possibili elaborazioni di ogni tipo e su qualsiasi dominio: grafico, di calcolo balistico, di elaborazione di dati provenienti da sensori, di calcolo numerico puro ecc. ecc.
Ovviamente la fame di dati da elaborare presuppone che la c.p.u o g.p.u che sia, non abbia uno dei limiti delle architetture di computer secondo Von Neumann e cioè la velocità, ampiezza di banda da e verso i banchi di memoria centrale...che sarebbe auspicabile poter un giorno integrae pure essi in una c.p.u...
Un Intel i800 con memoria interna (a questo punto non "cache" come intesa oggi) di qualche PiB, qualche centinaia di migliaia di unità di processo general purpose connesse secondo un ipercubo a dimensioni (fate voi quante) potrebbe divenire una ottima "piattaforma" per un "calcolatore universale" che probabilmente potrebbe superare il test di Turing.
Il sistema C.U.D.A di NVidia Corp. mi "intrippa" non poco...slurp...
Peccato che A.M.D ancora latiti in questo settore...per B.O.I .N.C sarebbe una vera rivoluzione...in Seti@home si potrebbe finalmente fare uso della trasformata di Karhunen-Loève in luogo dell'ubiquo utilizzo che si fa invece della trasformata discreta con algoritmi di F.F.T.
Grazie.

Marco71.


ahem....eh????
__________________
AMD X2 6000+
ASUS M2A-VM HDMI
RAM 2X 1GB 533MHZ
HD SATA 500GB 7200RPM
SAPPHIRE RADEON 4670 512MB
MONITOR BENQ 19" 1440x900
CASE OLIDATA NAPOLI
ALI 350W (400W PEAK)
WINDOWS VISTA
NO OVERCLOCK
^^lee è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 17:50   #33
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da ^^lee Guarda i messaggi
...dal numero di transistor disponibili/deputati in questo caso al calcolo in virgola mobile/calcolo vettoriale precipuo degli ambienti di supercomputing.
Una c.p.u general purpose come quelle che equipaggiano gli odierni (diciamo in ambito x86 a partire dall'8080 in poi...anche se la prima c.p.u con I.S.A x86 fu l'8086 e la sua variante con bus dati ad 8 bit 8088) nostri personal computer dovendo essere un "uomo per tutte le stagioni" possiede al suo interno un numero ridotto di unità f.p.u, s.i.m.d (queste molto spesso funzionano utilizzando un microcodice con relativo sequencer invece di una implementazione hard-wired che farebbe aumentare il numero di transistor (M.O.S) a dismisura).
Questo ante-Nehalem...se con Nehalem Intel riproporrà un paradigma già sperimentato con l'80860 (e suoi derivati) di nuovo la c.p.u tornerà ad essere e caratterizzarsi per ciò che esprime il suo acronimo: central processing unit...
Personalmente io sono (problemi tecnologici a parte) per la massima integrazione possibile...come per l'unità (o le unità) centrali a rete neurale con elementi non specializzati tipici dell'universo "Terminator" per intenderci ove sono possibili elaborazioni di ogni tipo e su qualsiasi dominio: grafico, di calcolo balistico, di elaborazione di dati provenienti da sensori, di calcolo numerico puro ecc. ecc.
Ovviamente la fame di dati da elaborare presuppone che la c.p.u o g.p.u che sia, non abbia uno dei limiti delle architetture di computer secondo Von Neumann e cioè la velocità, ampiezza di banda da e verso i banchi di memoria centrale...che sarebbe auspicabile poter un giorno integrae pure essi in una c.p.u...
Un Intel i800 con memoria interna (a questo punto non "cache" come intesa oggi) di qualche PiB, qualche centinaia di migliaia di unità di processo general purpose connesse secondo un ipercubo a dimensioni (fate voi quante) potrebbe divenire una ottima "piattaforma" per un "calcolatore universale" che probabilmente potrebbe superare il test di Turing.
Il sistema C.U.D.A di NVidia Corp. mi "intrippa" non poco...slurp...
Peccato che A.M.D ancora latiti in questo settore...per B.O.I .N.C sarebbe una vera rivoluzione...in Seti@home si potrebbe finalmente fare uso della trasformata di Karhunen-Loève in luogo dell'ubiquo utilizzo che si fa invece della trasformata discreta con algoritmi di F.F.T.
Grazie.

Marco71.


ahem....eh????
hai la signature irregolare
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 17:57   #34
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da gabi.2437 Guarda i messaggi
Si spiega col fatto che sei rimasto PARECCHIO indietro, folding@home supporta nvidia da parecchi mesi, e pure in modo più efficiente (purtroppo... ma avremo la rivincita presto )

ATI deve svegliarsi, ha CAL, che è come CUDA, ci butta su un pò di marketing e combatte CUDA... perchè tanto a efficienza di codice siamo lì lì quindi non c'è un "meglio"

Ma certo che finchè CUDA di qua e CUDA di là, hai voglia che ATI non la caga nessuno......

Poi, la CPU fa TUTTO quello che una GPU può fare, il succo è la velocità, la GPU può fare solo alcune cose, ma quelle poche cose che fa le fa MOLTO velocemente (decine o centinaia di volte più veloce)
CAL e CUDA sono cose differenti: CAL è simil assembly CUDA è C-like. L'equivalente di CUDA è brooks (open, sviluppato da stanford) o brooks+ (proprietario, basato su brooks e sviluppato in collaborazione con stanford). Brooks è l'interfaccia di alto livello tra programmatore e CAL. Chi ha buone conoscenze dell'architettura della gpu può utilizzare direttamente CAL (che diventa, in questo caso, uno strumento molto più potente di quanto non siano i linguaggi C-like)


Quote:
Originariamente inviato da Mercuri0 Guarda i messaggi
Chi porta soldi è sempre ben accetto. Venghino venghino che abbiamo bisogno!



Apple sta per lanciare un linguaggio chiamato OpenCL che sarà supportato da AMD & nVidia. E direi pure lntel.

La cosa molto figa, è che Apple (bontà sua!) ha proposto OpenCL come standard al Khronos Group, un'organizzazione a cui partecipano tutti (i tre di sopra più tanti altri tra hardwaristi e softwaristi. C'è anche Blizzard, per dire), e che tra le altre cose gestisce anche OpenGL.

Il supporto di OpenCL su Linux è legato solo alla volontà di AMD e nVidia di scrivere i driver, che di certo non mancherà.

Su Windows è uguale, non c'è nessun problema tecnico ma al massimo politico.

edit: in effetti, mi sento di essere grato ad Apple, per questa volta.

edit2: Blizzard ha le mani in pasta nel gruppo che decide le specifiche dell'OpenGL, e i suoi programmatori vanno in giro a fare conferenze su come si programma la grafica dei giochi. Non si direbbe, eh?

Simpaticissime le risposte quando il loro uomo posta sui forum di OpenGL. "Si, si, grazie Rob ma adesso fila a lavorare a Diablo 3"
c'è anche ID; e pure Epic
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 18:07   #35
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Marco71 Guarda i messaggi
...dal numero di transistor disponibili/deputati in questo caso al calcolo in virgola mobile/calcolo vettoriale precipuo degli ambienti di supercomputing.
Una c.p.u general purpose come quelle che equipaggiano gli odierni (diciamo in ambito x86 a partire dall'8080 in poi...anche se la prima c.p.u con I.S.A x86 fu l'8086 e la sua variante con bus dati ad 8 bit 8088) nostri personal computer dovendo essere un "uomo per tutte le stagioni" possiede al suo interno un numero ridotto di unità f.p.u, s.i.m.d (queste molto spesso funzionano utilizzando un microcodice con relativo sequencer invece di una implementazione hard-wired che farebbe aumentare il numero di transistor (M.O.S) a dismisura).
Questo ante-Nehalem...se con Nehalem Intel riproporrà un paradigma già sperimentato con l'80860 (e suoi derivati) di nuovo la c.p.u tornerà ad essere e caratterizzarsi per ciò che esprime il suo acronimo: central processing unit...
mi sfugge questo passaggio: per quale motivo le cpu ante nehalem non sarebbe delle c.p.u.? Quali sono le caratteristiche di un processore che permettano di definirlo cpu? E comunque gli approcci di intel al calcolo parallelo sembrano andare in direzione opposta rispetto a quanto tu ha indicato: così è per l'architettura EPIC di Itanium e così per il terascale computing (larrabee)

Quote:
Originariamente inviato da Marco71 Guarda i messaggi
Personalmente io sono (problemi tecnologici a parte) per la massima integrazione possibile...come per l'unità (o le unità) centrali a rete neurale con elementi non specializzati tipici dell'universo "Terminator" per intenderci ove sono possibili elaborazioni di ogni tipo e su qualsiasi dominio: grafico, di calcolo balistico, di elaborazione di dati provenienti da sensori, di calcolo numerico puro ecc. ecc.
preferisco la gnocca

Quote:
Originariamente inviato da Marco71 Guarda i messaggi

Ovviamente la fame di dati da elaborare presuppone che la c.p.u o g.p.u che sia, non abbia uno dei limiti delle architetture di computer secondo Von Neumann e cioè la velocità, ampiezza di banda da e verso i banchi di memoria centrale...che sarebbe auspicabile poter un giorno integrae pure essi in una c.p.u...
intendi integrare l'intero frame buffer, oltre alle cache, i buffer e i registri (già presenti dentro una cpu)?

Quote:
Originariamente inviato da Marco71 Guarda i messaggi

Un Intel i800 con memoria interna (a questo punto non "cache" come intesa oggi) di qualche PiB,
i spe del cell hanno memoria interna non cache; però hanno anche registri e buffer interni ed il ppe ha persino una memoria di tipo cached (chissà perchè ).

Quote:
Originariamente inviato da Marco71 Guarda i messaggi
qualche centinaia di migliaia di unità di processo general purpose connesse secondo un ipercubo a dimensioni (fate voi quante) potrebbe divenire una ottima "piattaforma" per un "calcolatore universale" che probabilmente potrebbe superare il test di Turing.
e potrebbe occupare uno spazio pari alla basilica di san pietro, soprattutto se la tua idea è quella di intelligenza artificiale "forte"

Ultima modifica di yossarian : 06-11-2008 alle 19:25.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 18:41   #36
Marco71
Senior Member
 
Iscritto dal: Nov 2003
Città: Provincia di Lucca
Messaggi: 3455
Sì appunto...

...parlo di "A.I strong"...e forse non occuperà un volume pari alla basilica di S. Pietro...
Forse grazie al D.A.R.P.A basterà il volume occupato da due cubi di Rubik affiancati (od anche meno).
Ho la firma irregolare ?
Grazie.

Marco71.
Marco71 è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 18:44   #37
Mercuri0
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 4414
Quote:
Originariamente inviato da yossarian Guarda i messaggi
c'è anche ID; e pure Epic
Sì ma Id ed Epic non fanno notizia, mentre Blizzard non è famosa per la "tecnologia grafica" dei suoi giochi.

Il mio piccolo OT era per osservare che non c'è bisogno di fare giochi con grandi requisiti hardware, per essere grandi programmatori di motori grafici.
Mercuri0 è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 19:16   #38
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Marco71 Guarda i messaggi
...parlo di "A.I strong"...e forse non occuperà un volume pari alla basilica di S. Pietro...
Forse grazie al D.A.R.P.A basterà il volume occupato da due cubi di Rubik affiancati (od anche meno).
quella della basilica era una battuta, ma hai idea di quanti transistor servano per simulare una rete neurale con connessioni point to point tra circa 100 miliardi di neuroni, considerando l'ipotesi di riuscire ad utilizzare un transistor a sinapsi?
E, in ogni caso, i detrattori dell'ipotesi dell'I.A. sono dell'avviso che neppure realizzando una rete neurale che simuli perfettamente la strutture del cervello se ne riuscirà a riprodurre il corretto funzionamento (quest'ultima cosa, ovviemente da dimostrare). In ogni caso, finora la letteratura scientifica riporta di simulazioni di sinapsi ma non di simulazine di rete neurale completa.

Quote:
Originariamente inviato da Marco71 Guarda i messaggi
Ho la firma irregolare ?
Grazie.

Marco71.
non tu, ma lee (ho quotato lui)

Sono curioso di approfondire le tue idee sulla ram embedded nelle cpu.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 19:42   #39
gabi.2437
Senior Member
 
L'Avatar di gabi.2437
 
Iscritto dal: Sep 2006
Messaggi: 7030
Quote:
Originariamente inviato da Marco71 Guarda i messaggi
...dal numero di transistor disponibili/deputati in questo caso al calcolo in virgola mobile/calcolo vettoriale precipuo degli ambienti di supercomputing.
Una c.p.u general purpose come quelle che equipaggiano gli odierni (diciamo in ambito x86 a partire dall'8080 in poi...anche se la prima c.p.u con I.S.A x86 fu l'8086 e la sua variante con bus dati ad 8 bit 8088) nostri personal computer dovendo essere un "uomo per tutte le stagioni" possiede al suo interno un numero ridotto di unità f.p.u, s.i.m.d (queste molto spesso funzionano utilizzando un microcodice con relativo sequencer invece di una implementazione hard-wired che farebbe aumentare il numero di transistor (M.O.S) a dismisura).
Questo ante-Nehalem...se con Nehalem Intel riproporrà un paradigma già sperimentato con l'80860 (e suoi derivati) di nuovo la c.p.u tornerà ad essere e caratterizzarsi per ciò che esprime il suo acronimo: central processing unit...
Personalmente io sono (problemi tecnologici a parte) per la massima integrazione possibile...come per l'unità (o le unità) centrali a rete neurale con elementi non specializzati tipici dell'universo "Terminator" per intenderci ove sono possibili elaborazioni di ogni tipo e su qualsiasi dominio: grafico, di calcolo balistico, di elaborazione di dati provenienti da sensori, di calcolo numerico puro ecc. ecc.
Ovviamente la fame di dati da elaborare presuppone che la c.p.u o g.p.u che sia, non abbia uno dei limiti delle architetture di computer secondo Von Neumann e cioè la velocità, ampiezza di banda da e verso i banchi di memoria centrale...che sarebbe auspicabile poter un giorno integrae pure essi in una c.p.u...
Un Intel i800 con memoria interna (a questo punto non "cache" come intesa oggi) di qualche PiB, qualche centinaia di migliaia di unità di processo general purpose connesse secondo un ipercubo a dimensioni (fate voi quante) potrebbe divenire una ottima "piattaforma" per un "calcolatore universale" che probabilmente potrebbe superare il test di Turing.
Il sistema C.U.D.A di NVidia Corp. mi "intrippa" non poco...slurp...
Peccato che A.M.D ancora latiti in questo settore...per B.O.I .N.C sarebbe una vera rivoluzione...in Seti@home si potrebbe finalmente fare uso della trasformata di Karhunen-Loève in luogo dell'ubiquo utilizzo che si fa invece della trasformata discreta con algoritmi di F.F.T.
Grazie.

Marco71.
Per BOINC c'è GPUGrid, che però per ora è limitato alle nvidia
__________________
gabi.2437 è offline   Rispondi citando il messaggio o parte di esso
Old 06-11-2008, 20:19   #40
!fazz
Moderatore
 
L'Avatar di !fazz
 
Iscritto dal: Nov 2006
Messaggi: 21702
Quote:
Originariamente inviato da yossarian Guarda i messaggi
mi sfugge questo passaggio: per quale motivo le cpu ante nehalem non sarebbe delle c.p.u.? Quali sono le caratteristiche di un processore che permettano di definirlo cpu? E comunque gli approcci di intel al calcolo parallelo sembrano andare in direzione opposta rispetto a quanto tu ha indicato: così è per l'architettura EPIC di Itanium e così per il terascale computing (larrabee)



preferisco la gnocca



intendi integrare l'intero frame buffer, oltre alle cache, i buffer e i registri (già presenti dentro una cpu)?



i spe del cell hanno memoria interna non cache; però hanno anche registri e buffer interni ed il ppe ha persino una memoria di tipo cached (chissà perchè ).



e potrebbe occupare uno spazio pari alla basilica di san pietro, soprattutto se la tua idea è quella di intelligenza artificiale "forte"
yossirian, penso che intendeva che in nahalem si è assistito ad una diminuzione delle istruzioni gestire da microcodice ed un'aumento di quelle gestite da "circuiteria" dedicata rispetto ai core
__________________
"WS" (p280,cx750m,4790k+212evo,z97pro,4x8GB ddr3 1600c11,GTX760-DC2OC,MZ-7TE500, WD20EFRX)
Desktop (three hundred,650gq,3800x+nh-u14s ,x570 arous elite,2x16GB ddr4 3200c16, rx5600xt pulse P5 1TB)+NB: Lenovo p53 i7-9750H,64GB DDR4,2x1TB SSD, T1000
!fazz è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque Hisense M2 Pro: dove lo metti, sta. Mini proiett...
Sconti nuovi di zecca su Amazon: 27 arti...
Un'esplorazione del 'lato oscuro' di Fac...
Apple ha venduto 3 miliardi di iPhone da...
Grandi sconti oggi sugli spazzolini elet...
Reddit sfida Google: vuole diventare il ...
Nuovi sconti super mini PC: Ryzen 7, 32G...
Addio NATO, benvenuta PAX ARMATA: tutto ...
Opportunità di guadagno: Microsof...
Proton non si ferma e lancia un nuovo au...
Acer TravelMate P4 14 con AMD Ryzen PRO:...
Dopo Aruba e Infocert, anche Register.it...
Fai da te: trapani avvitatori a doppia b...
Microsoft può stappare lo champag...
Amazon vola a 167,7 miliardi nel Q2: i n...
Meglio il robot Lefant M330Pro a 104€ o ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 13:08.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1