Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

Qualcomm Snapdragon X2 Elite: l'architettura del SoC per i notebook del 2026
Qualcomm Snapdragon X2 Elite: l'architettura del SoC per i notebook del 2026
In occasione del proprio Architecture Deep Dive 2025 Qualcomm ha mostrato in dettaglio l'architettura della propria prossima generazione di SoC destinati ai notebook Windows for ARM di prossima generazione. Snapdragon X2 Elite si candida, con sistemi in commercio nella prima metà del 2026, a portare nuove soluzioni nel mondo dei notebook sottili con grande autonomia
Recensione DJI Mini 5 Pro: il drone C0 ultra-leggero con sensore da 1 pollice
Recensione DJI Mini 5 Pro: il drone C0 ultra-leggero con sensore da 1 pollice
DJI Mini 5 Pro porta nella serie Mini il primo sensore CMOS da 1 pollice, unendo qualità d'immagine professionale alla portabilità estrema tipica di tutti i prodotti della famiglia. È un drone C0, quindi in un peso estremamente contenuto e che non richiede patentino, propone un gimbal rotabile a 225 gradi, rilevamento ostacoli anche notturno e autonomia fino a 36 minuti. Caratteristiche che rendono il nuovo drone un riferimento per creator e appassionati
ASUS Expertbook PM3: il notebook robusto per le aziende
ASUS Expertbook PM3: il notebook robusto per le aziende
Pensato per le necessità del pubblico d'azienda, ASUS Expertbook PM3 abbina uno chassis particolrmente robusto ad un pannello da 16 pollici di diagonale che avantaggia la produttività personale. Sotto la scocca troviamo un processore AMD Ryzen AI 7 350, che grazie alla certificazione Copilot+ PC permette di sfruttare al meglio l'accelerazione degli ambiti di intelligenza artificiale
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 17-02-2007, 11:01   #1
lowenz
Bannato
 
L'Avatar di lowenz
 
Iscritto dal: Aug 2001
Città: Berghem Haven
Messaggi: 13526
CUDA per tutti

Nvidia ha rilasciato il kit di CUDA per tutti, unico requisito per usarlo è conoscere un po' il C!
->http://developer.nvidia.com/object/cuda.html

----------------------------------------------------------------------------------

http://www.winbeta.org/comments.php?shownews=6195

Nvidia today released the first public beta of its CUDA, software developer kit, which so far has only been available to a limited number of developers. The company promises that the software will allow full access to the 128/96 cores of GeForce 8800 graphics cards and leverage their floating point capability, not only for graphics, but other applications that rely on number crunching performance as well.

The technology is compatible with 8800-series graphics cards, which are estimated to achieve a peak performance of about 520 GFlops, allowing consumers to build a teraflop system using Nvidia's SLI bridge. Andy Keane, general manager of professional products at Nvidia, told TG Daily that the CUDA kit is available to anyone interested, but it will take the knowledge of an "educated programmer" to tap the potential of the card. "Casual programming know-how won't be enough," Keane said. The technology is based on C-language and comes with what Nvidia claims is the first C compiler for the GPU.

Nvidia explained that CUDA "transcends the limitations of traditional GPU stream computing by extending the function of the GPU to address a wide range of mathematically-intensive problems." Mainstream applications aren't quite ready to take advantage of this additional horsepower, but according to Keane, CUDA may help to accelerate seismic model applications, financial model processing as well as fluid dynamics. He also imagines that graphics cards could simulate neuron cells, the behavior of cellphone waves and enable breakthroughs in the medical field: For example, the technology could pave the way to real-time x-rays, assisting doctors in what may soon be knows as 3D surgery. "There are applications that required one day to complete one task. We can do that now in 15 minutes, Keane said."

However, before CUDA and graphics will be able to enter the supercomputing space, there are still some hurdles the company has to take. Compared, for example, to traditional floating point accelerators such as Clearspeed's CSX600 boards, graphics cards are running on 32-bit and not 64-bit, providing only single-precision data capability - instead of the required double-precision capability. This limitation is also present in Intel's recently unveiled teraflop processor project. Keane told TG Daily that Nvidia graphics cards scheduled to launch later this year will go 64-bit and offer the double-precision feature.


----------------------------------------------------------------------------------

http://www.betanews.com/article/Coop...dia/1171654237

Today, the company announced its first C compiler - part of the CUDA SDK, which will enable scientific application developers for the first time to develop stand-alone libraries that are executed by the graphics processor, through function calls placed in standard applications run on the central processor.

NVidia's objective is to exploit an untapped reservoir on users' desktops and notebooks. While multi-core architecture has driven parallelism in computing into the mainstream, multi-pipeline architecture should theoretically catapult it into the stratosphere. But applications today are naturally written to be executed by the CPU, so any GPU-driven parallelism that's going to happen in programming must be evangelized first.

Which is why the company has chosen now to make its next CUDA push, a few weeks prior to the Game Developers' Conference in San Francisco. The greatest single repository of craftspersons among developers may be in the gaming field, so even though games already occupy the greater part of the GPU's work time, it's here where a concept such as CUDA can attract the most interest.

"The GPU is specialized for compute-intensive, highly parallel computation - exactly what graphics rendering is about," reads nVidia's latest CUDA programming guide (PDF available here), "and therefore is designed such that more transistors are devoted to data processing rather than data caching and flow control."

Huge arithmetic operations may be best suited to GPU execution, nVidia engineers believe, because they don't require the attention of all the CPU's built-in, microcoded functions for flow control and caching. "Because the same program is executed for each data element," reads the CUDA v. 0.8 guide, "there is a lower requirement for sophisticated flow control; and because it is executed on many data elements and has high arithmetic intensity, the memory access latency can be hidden with calculations instead of big data caches."

For CUDA to actually work, however, a computer must be set up with an exclusive NVidia display driver; CUDA is not an intrinsic part of ForceWare, at least not yet. In addition, programs must be explicitly written to support CUDA's libraries and custom driver; it doesn't enable the GPU to serve as a "supercharger" for existing applications. Because the GPU is such a different machine, there's no way for it to take a load off the CPU's shoulder's directly, like an old Intel 8087 or 80186 co-processor used to do.

So an application that supports CUDA thus, by definition, supports nVidia. AMD also has its own plans for co-opting GPU power, which it made immediately clear after its acquisition of ATI.

The CUDA programming guide demonstrates how developers can re-imagine a math-intense problem as being delegated to processing elements in a 2D block, like bestowing assignments upon a regiment of soldiers lined up in formation. Blocks and threads are delegated and proportioned, the way they would normally be if they were being instructed to render and shade multi-polygon objects. Memory on-board the GPU is then allocated using C-library derivatives of common functions, such as cudaMalloc() for allocating blocks of memory with the proper dimensions, and cudaMemcpy() for transferring data into those blocks. It then demonstrates how massive calculations that would require considerable thread allocation on a CPU are handled by the GPU as matrices.

"This complete development environment," read an nVidia statement this morning, "gives developers the tools they need to solve new problems in computation-intensive applications such as product design, data analysis, technical computing, and game physics."

Ultima modifica di lowenz : 17-02-2007 alle 11:03.
lowenz è offline   Rispondi citando il messaggio o parte di esso
Old 17-02-2007, 13:05   #2
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38298
Veramente ottimo, se venisse implementato per bene, e cis sono tutti i presupposti, sarebbe un valore aggiunto enorme, io sono convinto che ancora G80 abbia rivelato si e no il 50% delle sue potenzialità e nei prossimi mesi ne vedremo davvero delle belle
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 17-02-2007, 13:12   #3
Jet Dragon
Member
 
Iscritto dal: Feb 2007
Messaggi: 43
Scusate...Potreste spiegarmi che cos'è questo CUDA in pratica???
Jet Dragon è offline   Rispondi citando il messaggio o parte di esso
Old 17-02-2007, 14:32   #4
lowenz
Bannato
 
L'Avatar di lowenz
 
Iscritto dal: Aug 2001
Città: Berghem Haven
Messaggi: 13526
In pratica G80 può essere per certe applicazioni non grafiche (scientifiche, mediche, finanziarie e - sintetizzando - tutto quelle che giovano della presenza di un'architettura hardware dotata di elevato parallelismo - leggasi molte ALU e vedasi gli stream processor di G80 -) mooooooooooolto meglio di qualunque processore x86 presente attualmente sul mercato.
E la cosa stupenda è che basta conoscere un po' il C (un semplice linguaggio di programmazione) per poter sfruttare tutta questa enorme potenza.
Grandissima Nvidia che a rilasciato liberamente l'SDK, per chi in università si occupa di problemi di computazione generica su GPU è fantastico
lowenz è offline   Rispondi citando il messaggio o parte di esso
Old 17-02-2007, 14:35   #5
lowenz
Bannato
 
L'Avatar di lowenz
 
Iscritto dal: Aug 2001
Città: Berghem Haven
Messaggi: 13526
P.S.: a breve anche AMD dovrebbe rilasciare una scheda dedicata basata su R500 e/o R600.....speriamo che la parte software sia altrettanto valida
lowenz è offline   Rispondi citando il messaggio o parte di esso
Old 17-02-2007, 18:11   #6
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38298
Quote:
Originariamente inviato da lowenz Guarda i messaggi
In pratica G80 può essere per certe applicazioni non grafiche (scientifiche, mediche, finanziarie e - sintetizzando - tutto quelle che giovano della presenza di un'architettura hardware dotata di elevato parallelismo - leggasi molte ALU e vedasi gli stream processor di G80 -) mooooooooooolto meglio di qualunque processore x86 presente attualmente sul mercato.
E la cosa stupenda è che basta conoscere un po' il C (un semplice linguaggio di programmazione) per poter sfruttare tutta questa enorme potenza.
Grandissima Nvidia che a rilasciato liberamente l'SDK, per chi in università si occupa di problemi di computazione generica su GPU è fantastico
verissimo...aggiungo solo che anche nei giochi 3D avrà compiti specifici, cioè nei calcoli legati alla fisica
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Qualcomm Snapdragon X2 Elite: l'architettura del SoC per i notebook del 2026 Qualcomm Snapdragon X2 Elite: l'architettura del...
Recensione DJI Mini 5 Pro: il drone C0 ultra-leggero con sensore da 1 pollice Recensione DJI Mini 5 Pro: il drone C0 ultra-leg...
ASUS Expertbook PM3: il notebook robusto per le aziende ASUS Expertbook PM3: il notebook robusto per le ...
Test ride con Gowow Ori: elettrico e off-road vanno incredibilmente d'accordo Test ride con Gowow Ori: elettrico e off-road va...
Recensione OnePlus 15: potenza da vendere e batteria enorme dentro un nuovo design   Recensione OnePlus 15: potenza da vendere e batt...
Arriva Hisense Déco TV S5Q, estet...
Aggiornata TOP500, la classifica degli H...
Noctua NH-D15 Chromax.black è rea...
NVIDIA aggiorna DGX Spark: nuovo kernel,...
Con Work IQ, Copilot per Microsoft 365 i...
Azure Cobalt 200: svelata la nuova CPU A...
Intel a tutto tondo: tra processi in ram...
AMD FSR Redstone arriverà ufficia...
L'Olanda 'cede' alla Cina: retromarcia t...
Stagione 1 al via: tutte le novità...
TikTok rafforza trasparenza e benessere ...
Zigbee 4.0 è qui: più sic...
La trasformazione agentica di Windows pa...
Crollo del 29% nelle vendite dirette: Ub...
Black Friday anticipato su Amazon: NARWA...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 16:48.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v