Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese di utilizzo intensivo e l'analisi di oltre 50 scatti, l'articolo offre una panoramica approfondita di Nintendo Switch 2. Vengono esaminate le caratteristiche che la definiscono, con un focus sulle nuove funzionalità e un riepilogo dettagliato delle specifiche tecniche che ne determinano le prestazioni
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 30-09-2009, 07:50   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: http://www.hwupgrade.it/news/busines...erg_30266.html

Nuovo caso studio per le elaborazioni GPU Computing con soluzioni Tesla di NVIDIA: Bloomberg ottiene un incremento dell'800% nei tempi di elaborazione

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 07:59   #2
Luca69
Senior Member
 
L'Avatar di Luca69
 
Iscritto dal: Mar 2003
Città: Udine <--> Villach
Messaggi: 2579
Ottima notizia: invece di spendere in nuovo HW hanno speso meno soldi e pagato programmatori per la migrazione del codice.
Le macchine non sostituiranno l'uomo ancora per un bel po
Luca69 è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 08:13   #3
SSB
Member
 
L'Avatar di SSB
 
Iscritto dal: Nov 2007
Città: Firenze
Messaggi: 229
Quote:
"[...]Bloomberg ottiene un incremento dell'800% nei tempi di elaborazione"
Incremento?
__________________
SSB è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 08:17   #4
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 7465
Quote:
Originariamente inviato da Luca69 Guarda i messaggi
Ottima notizia: invece di spendere in nuovo HW hanno speso meno soldi e pagato programmatori per la migrazione del codice.
Le macchine non sostituiranno l'uomo ancora per un bel po
il problema è che normalmente i programmatori costano molto di piu dell' hardware perche li devi pagare anche dopo che hanno fatto al migrazione del programma
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 08:22   #5
demon77
Senior Member
 
L'Avatar di demon77
 
Iscritto dal: Sep 2001
Città: Saronno (VA)
Messaggi: 21701
power up a 800% rispetto a prima..
e sti gran cazzabubboli!!!
demon77 è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 08:26   #6
WaywardPine
Member
 
L'Avatar di WaywardPine
 
Iscritto dal: Apr 2008
Messaggi: 202
Quote:
Originariamente inviato da Luca69 Guarda i messaggi
Ottima notizia: invece di spendere in nuovo HW hanno speso meno soldi e pagato programmatori per la migrazione del codice.
Le macchine non sostituiranno l'uomo ancora per un bel po
Leggi la fonte dell'articolo... Solo in hardware hanno speso gli stessi soldi che avrebbero speso per passare a 8000 CPU cores. I vantaggi che hanno ottenuto sono prevalentemente in termini di consumi e scalabilità.
WaywardPine è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 08:43   #7
ndrmcchtt491
Senior Member
 
L'Avatar di ndrmcchtt491
 
Iscritto dal: Aug 2009
Città: Legnano
Messaggi: 6059
E meno male che c'è qualcuno che dice che CUDA è solo marcheting
ndrmcchtt491 è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 08:57   #8
homero
Senior Member
 
Iscritto dal: Dec 2000
Città: BARI
Messaggi: 1983
credete a queste cose? ma siete impazziti?

1. hanno dovuto acquistare i server tesla che non costano 2 soldi.
2. hanno dovuto riscrivere il codice
3. cambiando sistema di calcolo la fase di test e di affidabilità del sistema non è ancora collaudata
4. 800% rispetto a cosa? quando sento queste percentuali comincio a dubitare in tutti i test si è dimostrato un miglioramento del 50% di cuda rispetto alla CPU ad ogni modo...a me sembra tutta pubblicità come sempre...

...nvidia paga per farsi pubblicità...
homero è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 09:20   #9
thedreamers
Member
 
L'Avatar di thedreamers
 
Iscritto dal: Feb 2007
Città: Faenza - Brescia
Messaggi: 87
Vedrete quante aziende faranno lo stesso in questi anni Ottima Nvidia.

p.s. Secondo voi quelli di bloomberg non hanno fatto tutte le osservazioni del caso prima di affrontare questa spesa? di sicuro è una cosa che limita le spese e incrementa la produttività. Poi potete sparare assurdità quanto volete.
thedreamers è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 10:05   #10
mikeb90
Member
 
Iscritto dal: Nov 2008
Messaggi: 169
@ homero...senti leggiamoli epr intero gli artocoli:

Quote:
L'operazione di migrazione ha richiesto circa 1 anno di lavoro, tra riscrittura del codice e tutte le indispensabili operazioni di verifica del corretto funzionamento. L'incremento prestazionale che è stato ottenuto è stato pari all'800% nel complesso: quello che in precedenza richiedeva 16 ore per venir completato viene ora elaborato in circa 2 ore dal cluster GPU.
PS: 800%, ergo più veloce ti 8 volte...
mikeb90 è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 12:46   #11
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12101
Quote:
Originariamente inviato da homero Guarda i messaggi
4. 800% rispetto a cosa? quando sento queste percentuali comincio a dubitare in tutti i test si è dimostrato un miglioramento del 50% di cuda rispetto alla CPU ad ogni modo...a me sembra tutta pubblicità come sempre...


"L'incremento prestazionale che è stato ottenuto è stato pari all'800% nel complesso: quello che in precedenza richiedeva 16 ore per venir completato viene ora elaborato in circa 2 ore dal cluster GPU."

evidentamente il costo di riscrittura del codice e acquisto del server tesla sara stato infinitamente inferiore rispetto al:

"passando dagli 800 a disposizione agli 8.000 stimati"

7200 processori in piu non mi sembrano pochi, senza contare oltretutto spazio e consumi
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 14:53   #12
ndrmcchtt491
Senior Member
 
L'Avatar di ndrmcchtt491
 
Iscritto dal: Aug 2009
Città: Legnano
Messaggi: 6059
Quote:
Originariamente inviato da homero Guarda i messaggi
credete a queste cose? ma siete impazziti?

1. hanno dovuto acquistare i server tesla che non costano 2 soldi.
2. hanno dovuto riscrivere il codice
3. cambiando sistema di calcolo la fase di test e di affidabilità del sistema non è ancora collaudata
4. 800% rispetto a cosa? quando sento queste percentuali comincio a dubitare in tutti i test si è dimostrato un miglioramento del 50% di cuda rispetto alla CPU ad ogni modo...a me sembra tutta pubblicità come sempre...

...nvidia paga per farsi pubblicità...

Certo che credo a ste cose d' altronde si parla di elaborazioni finanziare, i vari server che hanno comprato non costano 2 soldi, peccato si parli di un' azienda che lavora(presumibilmente) in quel settore e non di un comune privato, se un sisteva lavora al 100% l' incremento prestazionale è di 8 volte cosa credibile, quanto al marcheting tanto meglio per Nvidia che è arrivata prima di altre aziende nell' elaborazione gpgpu

Ultima modifica di ndrmcchtt491 : 30-09-2009 alle 16:19.
ndrmcchtt491 è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 14:55   #13
eltalpa
Senior Member
 
L'Avatar di eltalpa
 
Iscritto dal: Aug 2003
Città: Cloz - Val di NON
Messaggi: 1863
Quote:
Originariamente inviato da homero Guarda i messaggi
credete a queste cose? ma siete impazziti?
Non e' che ci crediamo, le abbiamo comprate.
Dove lavoro abbiamo speso circa 6000euro per comprare una workstation con 2 Quardo il SLI per usare CUDA. E visti i risultati stiamo seriamente pensando di comprare un rack tesla.

Quote:
Originariamente inviato da homero Guarda i messaggi
1. hanno dovuto acquistare i server tesla che non costano 2 soldi.
2. hanno dovuto riscrivere il codice
3. cambiando sistema di calcolo la fase di test e di affidabilità del sistema non è ancora collaudata
4. 800% rispetto a cosa? quando sento queste percentuali comincio a dubitare in tutti i test si è dimostrato un miglioramento del 50% di cuda rispetto alla CPU ad ogni modo...a me sembra tutta pubblicità come sempre...
No, e' tutta verita'. Alcuni tipi di algoritmi, come le simulazioni fisiche, algoritmi di montecarlo, e in generale tutto cio' che e' facilemente parallelizzabile puo' ricevere boost fino a quasi due ordini di grandezza se calcolato su GPU.
Noi abbiamo implementato la DTW e il boost e' stato di 10x su cuda rispetto ad uno Xeon quad core (In percentuale si tratta di un boost del 1000% ). Abbiamo inoltre in mente di re-implementare alcuni algoritmi di calcolo di un famoso GIS opensource (GRASS) per velocizzare i calcoli sui file raster, un beneficio per tutti. Gia' altre societa' commerciali si sono attivate in questo senso e i miglioramenti prestazionali arrivano a 40x per alcuni calcoli, il che ci fa ben sperare: http://www.nvidia.com/object/io_1218623142100.html

Ne vale la pena? Se il miglioramento prestazionale e' dell'ordine di almeno un ordine di grandezza (10x) la risposta e' decisamente SI.


Quote:
Originariamente inviato da homero Guarda i messaggi
...nvidia paga per farsi pubblicità...
Balle. Nvidia fornisce un toolkit che funziona perfettamente e alla stessa maniera su tutti e tre i maggiori sistemi operativi (MAC, Win, Linux): CUDA.
Se fossero disponibili driver opencl per ATI/NVIDIA avremmo sicuramente utilizzato OpenCL, non piace nemmeno a noi il vendor lock-in. Ma il dato di fatto e' che i driver ancora non ci sono (Se non per MacOS e SOLO su snow leopard), toolkit neanche l'ombra e passera' ancora del tempo prima di avere altre soluzioni.
Appena ci saranno passeremo a openCL, sempre usando le quadro.

Devi riflettere anche sul fatto che Nvidia e' l'unica azienda che, tramite le soluzioni Tesla, fornisce una soluzione certificata (hardware, driver e toolkit) su rack per il GPU computing. Non vedo l'ora che lo faccia anche ati, cosi' magari i prezzi calano.
__________________
Questo Giochino mi fa impazzire - È meglio accendere una candela che maledire l'oscurità.

Ultima modifica di eltalpa : 30-09-2009 alle 14:58.
eltalpa è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 17:18   #14
homero
Senior Member
 
Iscritto dal: Dec 2000
Città: BARI
Messaggi: 1983
allora parliamoci chiaro, io ho provato a utilizzare CUDA un po' di tempo fa giusto per fare qualche test su alcuni algoritmi per il calcolo matriciale compiti gravosi per la risoluzione di una marea di problemi computazionali, ovviamente soltanto alcune funzioni come il calcolo matriciale era dirottato sulla GPU tutto il resto dell'algoritmo era rimasto sulla CPU questo per accellerare lo sviluppo e perche' i tempi di calcolo di quella parte sono circa il 90% del tempo macchina dell'algoritmo.
Bene lo sviluppo delle funzioni su CUDA è stato un vero incubo! crash continui! il sistema spesso girava semplicemente a vuoto!!! dopo un po' di smanettamento e riscritture delle funzioni che gestivano le funzioni su CUDA e configurazioni varie del sistema operativo siamo arrivati ad un pezzo di codice funzionante.
felicità direte voi! manco per niente i vantaggi rispetto al sistema esistente erano inferiori al 50% usando una quadroFX4600 su un sistema opteron quad dual processor 2,2mhz, in pratica nulli in quanto quando si scala in genere si parte minimo da un fattore 2.

questo dopo aver fatto diverse prove con altre schede nvidia non quadro siamo riusciti a trovare una quadro FX4600 presa da un sistema workstation Dell che ha dato i migliori risultati prestazionali

inoltre ho notato un cosa: la enorme disparita' tra singola precisione e doppia precisione, quasi del 200% ossia i calcoli in singola precisione sono in realtà veloci e sopratutto costanti, purtroppo non si puo' dire lo stesso nei calcoli in doppia precisione, per ragioni oscure i calcoli in doppia precisioni hanno tempi drammaticamente superiori a quelli in singola precisione e sopratutto c'e' una sorta di variabilità nei tempi di calcolo di circa 15% a parità di struttura di funzionamento sia hardware che software. ossia a seconda dei numeri che si trova a computare i driver cuda in doppia precisione svolgono i calcoli piu' o meno velocemente.

insomma una tecnologia totalmente immatura che non solo non soppianta quelle attuali ma sopratutto non ha senso utilizzare per calcoli in doppia precisione.

ci tengo a precisare che per calcoli di precisione superiore come quelli a 128bit la tecnologia CUDA è del tutto fuori luogo in quanto piu' lenta dell'equivalente cpu.

pertanto ad oggi i sistemi di calcolo coerenti sono solo quelli basati su cpu che scalano con sistemi cluster, ricordo a tutti che esistono diverse versioni del kernel linux che funzionano da anni egregiamente su sistemi cluster con centinaia di CPU.

quindi mi farebbe piacere che hwupgrade scrivesse la realtà dei fatti cioe'
che GPGPU è una tecnologia immatura ed adatta a sistemi in singola precisione on desk per chi' non puo' permettersi un sistema cluster e deve far girare algoritmi estremamente semplici. per tutto il resto questa tecnologia è semplicemente inutilizzabile.
homero è offline   Rispondi citando il messaggio o parte di esso
Old 30-09-2009, 17:54   #15
eltalpa
Senior Member
 
L'Avatar di eltalpa
 
Iscritto dal: Aug 2003
Città: Cloz - Val di NON
Messaggi: 1863
Quote:
Originariamente inviato da homero Guarda i messaggi
allora parliamoci chiaro, io ho provato a utilizzare CUDA un po' di tempo fa giusto per fare qualche test su alcuni algoritmi per il calcolo matriciale compiti gravosi per la risoluzione di una marea di problemi computazionali, ovviamente soltanto alcune funzioni come il calcolo matriciale era dirottato sulla GPU tutto il resto dell'algoritmo era rimasto sulla CPU questo per accellerare lo sviluppo e perche' i tempi di calcolo di quella parte sono circa il 90% del tempo macchina dell'algoritmo.
Bene lo sviluppo delle funzioni su CUDA è stato un vero incubo! crash continui! il sistema spesso girava semplicemente a vuoto!!! dopo un po' di smanettamento e riscritture delle funzioni che gestivano le funzioni su CUDA e configurazioni varie del sistema operativo siamo arrivati ad un pezzo di codice funzionante.
felicità direte voi! manco per niente i vantaggi rispetto al sistema esistente erano inferiori al 50% usando una quadroFX4600 su un sistema opteron quad dual processor 2,2mhz, in pratica nulli in quanto quando si scala in genere si parte minimo da un fattore 2.

questo dopo aver fatto diverse prove con altre schede nvidia non quadro siamo riusciti a trovare una quadro FX4600 presa da un sistema workstation Dell che ha dato i migliori risultati prestazionali
Noi non abbiamo mai avuto problemi di questo genere. Ma forse proprio perche' tutto il nostro hardware e' DELL e le schede sono delle quadro.
Le soluzioni professionali avranno anche i loro costi, ma spesso evitano tante rogne.

Quote:
Originariamente inviato da homero Guarda i messaggi
inoltre ho notato un cosa: la enorme disparita' tra singola precisione e doppia precisione, quasi del 200% ossia i calcoli in singola precisione sono in realtà veloci e sopratutto costanti, purtroppo non si puo' dire lo stesso nei calcoli in doppia precisione, per ragioni oscure i calcoli in doppia precisioni hanno tempi drammaticamente superiori a quelli in singola precisione e sopratutto c'e' una sorta di variabilità nei tempi di calcolo di circa 15% a parità di struttura di funzionamento sia hardware che software. ossia a seconda dei numeri che si trova a computare i driver cuda in doppia precisione svolgono i calcoli piu' o meno velocemente.
Che le prestazioni sulle GPU attuali calino di molto in doppia precisione e' risaupto. Uno dei compiti dell'architettura GT300 sara' proprio quello di risolvere il gap prestazione a doppia precisione.
E' per questo che stiamo aspettando le soluzioni tesla basate su GT300 prima di fare ulteriori acquisti.
Ma i campi appicativi per i calcoli in singola precisione sono molteplici.

Quote:
Originariamente inviato da homero Guarda i messaggi
insomma una tecnologia totalmente immatura che non solo non soppianta quelle attuali ma sopratutto non ha senso utilizzare per calcoli in doppia precisione.
Che la generazione attuale di schede abbia molti meno vantaggi in doppia precisione e' vero. Che sia una tecnologia immatura dissento. A noi non ha mai dato problemi.

Quote:
Originariamente inviato da homero Guarda i messaggi
ci tengo a precisare che per calcoli di precisione superiore come quelli a 128bit la tecnologia CUDA è del tutto fuori luogo in quanto piu' lenta dell'equivalente cpu.
Se devi piantare dei chiodi usi un martello. Se devi elaborare dati a 128bit usi una CPU. Se devi elaborare dati parallelizzabili in fp sigle precision o interi usi una GPU. Ogni hardware ha il suo scopo.

Quote:
Originariamente inviato da homero Guarda i messaggi
pertanto ad oggi i sistemi di calcolo coerenti sono solo quelli basati su cpu che scalano con sistemi cluster, ricordo a tutti che esistono diverse versioni del kernel linux che funzionano da anni egregiamente su sistemi cluster con centinaia di CPU.
Si, abbiamo anche quello, circa una cinquantina di blade con dual xeon quad core e qualche centinaio di GB di ram. Cio' non toglie che CUDA si sia rivelato utile.

Quote:
Originariamente inviato da homero Guarda i messaggi
quindi mi farebbe piacere che hwupgrade scrivesse la realtà dei fatti cioe'
che GPGPU è una tecnologia immatura ed adatta a sistemi in singola precisione on desk per chi' non puo' permettersi un sistema cluster e deve far girare algoritmi estremamente semplici. per tutto il resto questa tecnologia è semplicemente inutilizzabile.
Falso. E' una tecnologia molto utile per l'implementazione di svariati algoritmi parallelizzabili. L'attuale generazione hardware fornisce prestazioni massime a singola precisione, ma nel caso dei nostri algoritmi superava la CPU di un bel po' (2x circa) anche in double precision. Con la prossima generazione di hardware anche questo limite cadra'.
Il vantaggio fondamentale e' che arriveremo con gli algoritmi gia' pronti.
__________________
Questo Giochino mi fa impazzire - È meglio accendere una candela che maledire l'oscurità.

Ultima modifica di eltalpa : 30-09-2009 alle 18:11.
eltalpa è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2009, 09:55   #16
ndrmcchtt491
Senior Member
 
L'Avatar di ndrmcchtt491
 
Iscritto dal: Aug 2009
Città: Legnano
Messaggi: 6059
Quote:
Originariamente inviato da homero Guarda i messaggi
allora parliamoci chiaro, io ho provato a utilizzare CUDA un po' di tempo fa giusto per fare qualche test su alcuni algoritmi per il calcolo matriciale compiti gravosi per la risoluzione di una marea di problemi computazionali, ovviamente soltanto alcune funzioni come il calcolo matriciale era dirottato sulla GPU tutto il resto dell'algoritmo era rimasto sulla CPU questo per accellerare lo sviluppo e perche' i tempi di calcolo di quella parte sono circa il 90% del tempo macchina dell'algoritmo.
Bene lo sviluppo delle funzioni su CUDA è stato un vero incubo! crash continui! il sistema spesso girava semplicemente a vuoto!!! dopo un po' di smanettamento e riscritture delle funzioni che gestivano le funzioni su CUDA e configurazioni varie del sistema operativo siamo arrivati ad un pezzo di codice funzionante.
felicità direte voi! manco per niente i vantaggi rispetto al sistema esistente erano inferiori al 50% usando una quadroFX4600 su un sistema opteron quad dual processor 2,2mhz, in pratica nulli in quanto quando si scala in genere si parte minimo da un fattore 2.

questo dopo aver fatto diverse prove con altre schede nvidia non quadro siamo riusciti a trovare una quadro FX4600 presa da un sistema workstation Dell che ha dato i migliori risultati prestazionali

inoltre ho notato un cosa: la enorme disparita' tra singola precisione e doppia precisione, quasi del 200% ossia i calcoli in singola precisione sono in realtà veloci e sopratutto costanti, purtroppo non si puo' dire lo stesso nei calcoli in doppia precisione, per ragioni oscure i calcoli in doppia precisioni hanno tempi drammaticamente superiori a quelli in singola precisione e sopratutto c'e' una sorta di variabilità nei tempi di calcolo di circa 15% a parità di struttura di funzionamento sia hardware che software. ossia a seconda dei numeri che si trova a computare i driver cuda in doppia precisione svolgono i calcoli piu' o meno velocemente.

insomma una tecnologia totalmente immatura che non solo non soppianta quelle attuali ma sopratutto non ha senso utilizzare per calcoli in doppia precisione.

ci tengo a precisare che per calcoli di precisione superiore come quelli a 128bit la tecnologia CUDA è del tutto fuori luogo in quanto piu' lenta dell'equivalente cpu.

pertanto ad oggi i sistemi di calcolo coerenti sono solo quelli basati su cpu che scalano con sistemi cluster, ricordo a tutti che esistono diverse versioni del kernel linux che funzionano da anni egregiamente su sistemi cluster con centinaia di CPU.

quindi mi farebbe piacere che hwupgrade scrivesse la realtà dei fatti cioe'
che GPGPU è una tecnologia immatura ed adatta a sistemi in singola precisione on desk per chi' non puo' permettersi un sistema cluster e deve far girare algoritmi estremamente semplici. per tutto il resto questa tecnologia è semplicemente inutilizzabile.

Dico subito che non sono un informatico, ma quando sono andato a un congresso a Milano su calcoli paralleli su gpu tramite CUDA si parlava chiaramente dei benefici di tale soluzione.
Poi, come tu affermi perchè non avete usato subito le quadrofx???
Forse se lo facevate da subito vi risparmiavate un sacco di rogne...
ndrmcchtt491 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2009, 16:11   #17
indio68
Bannato
 
L'Avatar di indio68
 
Iscritto dal: Feb 2003
Città: Albisola - Savona
Messaggi: 3126
altra mazzetta di nvidia....non basta il logo maledetto TWIMTBP?? arriveranno le multe milionarie spero..e anche rpesto mi auguro
indio68 è offline   Rispondi citando il messaggio o parte di esso
Old 02-10-2009, 11:04   #18
ndrmcchtt491
Senior Member
 
L'Avatar di ndrmcchtt491
 
Iscritto dal: Aug 2009
Città: Legnano
Messaggi: 6059
Quote:
Originariamente inviato da indio68 Guarda i messaggi
altra mazzetta di nvidia....non basta il logo maledetto TWIMTBP?? arriveranno le multe milionarie spero..e anche rpesto mi auguro
non ho capito l' ultima frase
Poi, perchè multare???Nvidia HA SIGLATO CON UNA azienda(amerigana) neanche europea.Quindi se non vado errato l' antitrust non ha voce visto che in questo caso ci troviamo fuori dai confini territoriali.

E poi scusate ma è colpa di Nvidia se AMD si stà ammuffendo???

E poi scusate un po: ma saranno cavoli loro a quello che gli succederà???

Ultima modifica di ndrmcchtt491 : 02-10-2009 alle 17:47.
ndrmcchtt491 è offline   Rispondi citando il messaggio o parte di esso
Old 16-12-2009, 23:41   #19
tony666
Senior Member
 
Iscritto dal: May 2000
Città: Roma
Messaggi: 1562
Ciao raga, forse sono un pò off topic ma non trovo altre discussioni a riguardo.

Qualcuno mi sa spiegare cos'è questo tesla? Ho visto che esiste una specie di scheda video (la tesla c1060 4gb) che però non ha uscite video.
A quanto ho capito è una specie di gtx280 che però non viene usata come scheda video ma come vero e proprio calcolatore per fare altre cose.

Quello che mi chiedevo è a cosa servono effettivamente? Servono solo per i grossi server e roba del genere o possono essere sfruttate anche con Avid, after effect, Cad, 3d Opengl e quant'altro?

Grazie e scusate l'OT
__________________
|Intel 3930K@4.3ghz@1.29v|Asus P9X79Deluxe|Case Antec Skeleton|Dissi Noctua NH-L12 low profile|Psu Corsair Ax850|16Gb Ddr3 Quad channel Gskill RipjawsX 2400(59Gb/s@CL10.12.12.29.1T-1.65v)|Msi gaming Xtrio 1080ti@1975/12.016mhz|Ssd Crucial Mx100 512GB sata|2xSeagate Barracuda 2TB|Volante Logitech G25|Monitor Aoc Agon AG271QG 27" 2k 165hz gsync + AOC G2460PG 24"1080p 144hz|Win10Pro|Fastweb Fibra100|
tony666 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
vivo X200 FE: il top di gamma si è fatto tascabile? vivo X200 FE: il top di gamma si è fatto ...
Driver più sicuri: Microsoft alza...
Ego Power+ ha la giusta accoppiata per l...
Scompiglio nei listini Amazon: prezzi im...
Sotto i 105€ il robot Lefant che lava, a...
Mini proiettori smart in offerta: uno co...
Smartwatch Amazfit in offerta: Balance o...
Windows XP ritorna: ecco come usarlo sub...
Arrow Lake in saldo: Intel taglia i prez...
LG C4 da 55'' a 899€ è il top per...
DJI Neo a 159€ è il mini drone pe...
Robot aspirapolvere DREAME D10 Plus Gen ...
A 109€ ha costretto Amazon a nuove scort...
Sbaraglia la concorrenza Intel, questo m...
Giappone all'attacco: ecco il primo wafe...
Cinema in Italia, svolta storica: arriva...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 19:26.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1