View Full Version : CUDA anche su schede video ATI? Perché no
Redazione di Hardware Upg
01-07-2009, 09:36
Link alla notizia: http://www.hwupgrade.it/news/skvideo/cuda-anche-su-schede-video-ati-perche-no_29482.html
Le affermazioni del chief scientist della società californiana lasciano qualcosa più di un dubbio: la scelta di diffondere la propria piattaforma di sviluppo potrebbe garantire anche un supporto delle schede grafiche AMD
Click sul link per visualizzare la notizia.
E lo credo bene... se non ottimizzano le loro schede per il loro framework, son pure fessi.
E questo è uno dei motivi per cui ATI non ha voluto implementare CUDA nella sue schede, e ora nvidia prova a fare in modo che giri lo stesso.
Del resto non ha molta altra scelta, se vuoi puntare alla diffusione di CUDA.
DarKilleR
01-07-2009, 09:41
ma non c'era un tipo che aveva crakkato CUDA facendolo girare sulle ATI...con prestazioni anche superiori?
E poi il linguaggio usato da ATI è open e vi collabora un grande consorsio di grandi aziende a partire da IBM, Sun etc etc..
A me sembra che alla nVidia stiano facendo tanto marketing su questo CUDA ma mi sembra solo uno specchietto per le allodole e per bimbominkia...
Ho una VGA con CUDA attivato e le prestazioni in più anche con software ottimizzati li devo sempre vedere..
io penso che il framework gpgpu da usare su schede di più produttori deve essere opencl, è inutile sprecare risorse in altri progetti.
ilratman
01-07-2009, 09:56
ma non c'era un tipo che aveva crakkato CUDA facendolo girare sulle ATI...con prestazioni anche superiori?
E poi il linguaggio usato da ATI è open e vi collabora un grande consorsio di grandi aziende a partire da IBM, Sun etc etc..
A me sembra che alla nVidia stiano facendo tanto marketing su questo CUDA ma mi sembra solo uno specchietto per le allodole e per bimbominkia...
Ho una VGA con CUDA attivato e le prestazioni in più anche con software ottimizzati li devo sempre vedere..
il ling ati e' sicuramente superiore ma e' difficile da usare perche' di basso livello mentre cuda e' piu' semplice.
che app ottimizzate usi che non vedi vantaggi? Cmq la cosa migliore e' l'opencl
Superboy
01-07-2009, 10:01
ma in realtà CUDA è anche un framework con molte comodità di alto livello, l'uovo di colombo è sviluppare tali librerie sopra OpenCL.
MadJackal
01-07-2009, 10:06
io penso che il framework gpgpu da usare su schede di più produttori deve essere opencl, è inutile sprecare risorse in altri progetti.
il ling ati e' sicuramente superiore ma e' difficile da usare perche' di basso livello mentre cuda e' piu' semplice.
che app ottimizzate usi che non vedi vantaggi? Cmq la cosa migliore e' l'opencl
La cosa migliore E' OpenCL, senza ombra di dubbio.
E' che NVIDIA non lo vuole capire, perderebbe il primato nel GPGPU.
ma in realtà CUDA è anche un framework con molte comodità di alto livello, l'uovo di colombo è sviluppare tali librerie sopra OpenCL.
In realtà credo che NVIDIA voglia implementare OpenCL sopra CUDA.
Ed ATI voglia fare qualcosa di simile con Stream (Brook+).
g.luca86x
01-07-2009, 10:13
La questione è sostanzialmente quella di avere uno standard unico di gpgpu per programmare su qualunque piattaforma hardware, esattamente come il C per i microcontrollori e deve essere uno standard libero, non proprietario, in modo da poter essere facilmente fruibile da tutti. Riguardo cuda però c'è da dire che nvidia gode già di una buona base di diffusione sia per applicazioni che per utenza. Senza contare inoltre che in molte università americane la programmazione parallela e il gpucomputing viene chiamato non a caso "CUDA programming". Lo so, è come se in Italia invece di avere l'esame di sistemi operativi ci fosse "Microsoft Windows" nella facoltà di ingegneria informatica. Ci vorrebbe davvero un pò di decisione...
Tidus.hw
01-07-2009, 10:21
secondo il Chief scientist infatti le schede video sviluppate dalla sua società sono decisamente migliori sotto questo punto di vista e gli utenti se ne accorgeranno
sarà perchè tutto il software attualmente sviluppato per cuda è stato ottimizzato per l'architettura superscalare della nvidia?
ti credo che gira meglio....
RiccardoBN
01-07-2009, 10:22
Esatto.
Il punto è: quante figosità di alto livello troveremo nei prossimi framework di sviluppo MS? Sarà quindi CUDA ancora così appetibile, di fatto unicamente per queste features? O converrà affidarsi a strumenti non legati al fornitore dell'hardware in modo da evitare di legarsi ad un lato non ottenendo i risultati sperati sull'altra faccia della luna?
Infatti... leghiamoci alla SW house... che è sempre un bene...
Secondo me è solo un prova per vedere se AMD ha intenzione di abboccare all'amo.
MiKeLezZ
01-07-2009, 10:28
Continuano ad essere chiacchiere.
In realtà non dice mai, nell'intervista, quello che da più parte si sostiene. Né potrebbe farlo, è solo marketing atto a far adottare CUDA a chi è giustamente scettico rispetto ad una soluzione proprietaria, con lo specchietto di una compatibilità con tutto il mercato, cosa che non avrà mai.
La parola FINE su CUDA è già stata pronunciata, non si imporrà mai come standard perchè gli standard già ci sono, e non c'è motivo per cui qualcuno dovrebbe legarsi a nVidia quando usando lo standard può riservarsi la possibilità di utilizzare quello che vuole, come hardware, oggi e domani.Queste "chiacchere" per ora hanno dato luogo a questi -FATTI- :
- CUDA è facilmente utilizzabile, subito, e da tutti - ci sono innumerevoli progetti anche solo amatoriali; lo stesso non si può dire per ATI
- CUDA ha dato luogo a progetti professionali di elevata qualità, come PlugIn per MATLAB, PlugIn per PhotoShop (non parlo dell'accelerazione OGL), estensioni per TGMPEG, e via discorrendo; anche qua non si può dire per ATI
- CUDA, o le schede che lo sfruttano, appare effettivamente come migliore, vedasi il software Badaboom vs. AVIVO e vedi le prestazioni in Folding@Home (dove NVIDIA è parecchio superiore)
Lo standard, non basta che sia standard, ma deve essere anche vincente. Vedi OpenGL e DirectX.
La cosa migliore E' OpenCL, senza ombra di dubbio.
E' che NVIDIA non lo vuole capire, perderebbe il primato nel GPGPU.
In realtà credo che NVIDIA voglia implementare OpenCL sopra CUDA.
Ed ATI voglia fare qualcosa di simile con Stream (Brook+).CUDA è TUTTO CIO' che è inerente il GPGPU Computing.
Quello di cui si parla con "CUDA" è generalmente il CUDA framework, che è un SDK NVIDIA per una veloce programmazione (con elevate similitudini in C, quindi facilmente sfruttabile da subito).
NULLA vieta di usare poi altri metodi per il GPGPU Computing, come OpenCL, o addirittura un linguaggio macchina simile al Assembler (come si era costretti fino a non molto fa con ATI).
Chiusa parentesi,
NVIDIA SUPPORTA GIA' OPENCL, SENZA ALCUN PROBLEMA.
Ovvio che voglia spingere il suo CUDA framework (ma d'altronde non a caso: la sua programmazione è infatti molto semplice, e si hanno ricchi esempi in modo da non dover partire da zero), ma NON IMPONE ASSOLUTAMENTE NULLA... non a caso il supporto OPENCL è stato implementato addirittura prima di ATI.
C'è chi chiacchera... e chi agisce (magari sbagliando, magari no, ma almeno qualcosa fa). Non confondiamoci.
In realtà credo che NVIDIA voglia implementare OpenCL sopra CUDA.
Ed ATI voglia fare qualcosa di simile con Stream (Brook+).
No, le cose cambiano velocemente in questo ambito...
intanto stream e Brook+ sono morti, ora AMD si appoggia appieno ad openCL.
cmq il "linguaggio" che gira davvero sulle schede Nvidia, cioè quello che viene mandato al driver è il PTX, cioè un virtual instruction set.
Nvidia ha spesso lasciato intendere che CUDA è solamente uno dei tanti modi per compilare in PTX, e che probabilmente in futuro CUDA diventerà una top-level API sopra OpenCL, che andrà a sostituire o affiancare la driver level API.
D'altra parte ha senso, perchè OCL e la driver API svolgono praticamente le stesse funzioni.
Cmq per l'end user non so quando e soprattutto SE si vedranno i vantaggi, il problema non sono le schede video ma il fatto che tutta questa potenza non serve esattamente a niente...
cioè, qualsiasi programma "home" non se ne fa nulla di 1 Tflop di potenza, il 90% del tempo viene speso nel caricare/gestire/selezionare dati.
IMHO per la diffusione di queste architetture è necessario inventare un nuovo genere di applicazioni che usi davvero tutta questa potenza... apparte ovviamente i videogiochi che essendo simulazioni richiedono tutta la potenza che puoi dargli.
Il video encoding di filmati Full HD è un'applicazione molto pesante per l'home user, ed in rapida diffusione.
E' una di quelle applicazioni per cui uno prenderebbe un quad core piuttosto che un dual (e tra 1 anno, un 6 core).
Ma se ho già la scheda video pagata solo per giocare, il risparmio è notevole, ed una cpu di fascia bassa va' benissimo.
Se anche potessero creare un programma che si occupa di compressione /decompressione dati, non sarebbe male per gli "home user".
Bah... ancora con 'sto CUDA.
Non vedo l'ora che arrivi OpenCL, cosi' che le applicazioni GPGPU possano finalmente diffondersi.
P.S.
Che pa**e la login delle news di Hardware Upgrade!
Domanda: ma un programma può accedere a basso livello alla gpu, bypassando i drivers? :confused:
Domanda: ma un programma può accedere a basso livello alla gpu, bypassando i drivers? :confused:
WHY NOT?
anni fà avevo fatto un programmino che disegnava a video delle bandiere bypassando i driver, nulla lo vieta, ovviamente è uno sbattimento assurdo)
Non sono del tutto sicuro che qualunque sistema operativo te lo consenta...
io avevo provato in xp e codice assembler all'interno di un programma c++
andando a lavorare direttamente sulla ram video
MiKeLezZ
01-07-2009, 11:53
Ovviamente ti è chiaro che questo non appare configurarsi come diffusione su larga scala e/o standardizzazione.
Senza contare che lo metti in rete e soli chi ha una GF8+ può usarlo. Che è il limite maggiore e inaccettabile."Solo"? Le GF8 sono datate 2006.
ATI supporta pienamente il GPGPU solo dalle 3800, che sono di fine 2007.
Cerchiamo di essere obiettivi.
L'unica cosa che mi appare chiaro, è che i tuoi discorsi non sono chiari.
In ogni caso OCL non è un sostituto delle DX11, che non sono un sostituto di CUDA.
NVIDIA offre questo: possibilità di scelta, possibilità di sporcarsi le mani da subito, e pieno supporto.
Lo standard (se mai ci sarà) lo deciderà poi il mercato, le mazzette, i brogli.
Intanto io mi godo i fatti.
WHY NOT?
anni fà avevo fatto un programmino che disegnava a video delle bandiere bypassando i driver, nulla lo vieta, ovviamente è uno sbattimento assurdo)
No, stavo solo pensando che tutti questi layer castrano parecchio le prestazioni, e se fosse possibile bypassare tutto e far lavorare direttamente il programma( ad esempio di encoding) direttamente sull'hardware, guadagnando prestazioni. :D
Crimson Skies
01-07-2009, 12:50
Sembra chiaro che prima o poi si arriverà al solito scontro Nvida vs Ati in questo thred come al solito.
A parte questo è vero che CUDA è molto valido e il fatto che Nvidia voglia cercare di portarlo anche su schede ATI mi sembra un gesto di buona volontà anche per nn tagliare fuori coloro che avendo una ATI nn potrebbero utilizzare softaware con CUDA. Inoltre come si legge nelle ultime 3 righe :
"La paura di andare a contribuire alle vendite di GPU AMD, garantendo il supporto di CUDA non impensierisce però Dally: secondo il Chief scientist infatti le schede video sviluppate dalla sua società sono decisamente migliori sotto questo punto di vista e gli utenti se ne accorgeranno."
Cosa vera visto che le schede Nvidia pur costando un pò di più, rimangono sempre migliori di quelle ATi. Gli utenti se ne accorgono e come.
g.luca86x
01-07-2009, 13:10
Sembra chiaro che prima o poi si arriverà al solito scontro Nvida vs Ati in questo thred come al solito.
Cosa vera visto che le schede Nvidia pur costando un pò di più, rimangono sempre migliori di quelle ATi. Gli utenti se ne accorgono e come.
Bisogna vedere quanto costano in più rispetto a ciò che offrono...
kaio1000
01-07-2009, 13:11
beh, è ovvio che se ci fosse l'utilizzo da parte di amd di CUDA, sarebbe un ulteriore strumento di marketing per Nvidia, ovviamente nessuno potrà mai pensare che l'ottimizzazione dello strumento sia tale da consentire ad entrambi i brand di lavorare con le stesse prestazioni, ed ecco che si ritornerebbe alle classiche ottimizzazioni nvidia come accade nei giochi. Onestamente se fosse adottato (ne dubito fortemente però), credo sarà solo uno strumento per screditare AMD in un confronto su applicazioni che utilizzano CUDA. Ovviamente in tali casi c'è bisogno di standard e quello è già esistente ossia OPENCL, ora bisogna solo aspettare che proliferino applicazioni in grado di godere dei benefici di tale standard, ma è ancora presto visto che è nato da poco.
@MikelezZ: sebbene quel che dici corrisponde al vero, noto una tua certa faziosità nei reply. Evitiamo comportamenti da fanboy grazie.
gabi.2437
01-07-2009, 13:17
- CUDA, o le schede che lo sfruttano, appare effettivamente come migliore, vedasi il software Badaboom vs. AVIVO e vedi le prestazioni in Folding@Home (dove NVIDIA è parecchio superiore)
Non spariamo boiate, su folding vanno meglio perchè folding è in precisione singola
Guarda un pò chi va meglio tra ati e nvidia su milkyway@home :fagiano:
Crimson Skies
01-07-2009, 13:19
Il punto non è una buona volontà, ma quello che ho sottolineato nei miei post: se nVidia vuole ancora provare ad imporre CUDA l'unica possibilità è che sia supportato su tutto l'hardware, altrimenti nessuno ci farà investimenti veri e il suo non-standard rimarrà suo e sarà soppiantato completamente da altro.
E' normale. Le ottimizzazioni di CUDA sono fatte per le vga nVidia, sarebbe sorprendente il contrario...
Concordo. In effetti avevo detto buona volontà perchè pensavo alla solità rivalità tra le due case. Però quel che dice corrisponde al vero.
Bisogna vedere quanto costano in più rispetto a ciò che offrono...
Bhè se consideri che la 295GTX è scesa di prezzo e rimane la VGA migliore sul mercato e che comunque anche nelle prove che lo stesso HW propone si vede che le soluzioni Nvidia sono spesso le migliori e che i prezzi sono comunque abbastanza allineati, ne concluderei che Nvidia propone nella stragrande maggioranza dei casi soluzioni migliori di ATi. Questo nn toglie che ad esempio per un PC che ho assemblato sul quale deve girare non crysis o farcry 2 ma roba tipo Sims 3 e giodhi nn troppo esosi ma comunque con grafica di qualità, ho scelto una ATi 3850 512Mb in quanto a parità di prestazioni/prezzo Nvidia nn offre molto. Unica pecca i drivers e li si vede molto la differenza. Ma questa è un'altra storia.:)
io penso che il framework gpgpu da usare su schede di più produttori deve essere opencl, è inutile sprecare risorse in altri progetti.
Quoto1, mi sembra inutile andare a creare linguaggi di programmazione in base alla marca della scheda video, usare uno standard libero tipo OpenCL mi pare molto più sensato ma purtroppo spesso non si segue questa logica ma quella di mercato... :(
Bisogna vedere quanto costano in più rispetto a ciò che offrono...
Quoto2, a meno che non si vada su prodotti particolari le ATI in genere forniscono prestazioni più che buone a prezzi migliori di nVidia.
Linux Lover
01-07-2009, 13:28
Abbiamo capito dai.. CUDA diventerà uno standard vero e proprio (come si presagiva già nei mesi scorsi)
in cui si era fatto il punto della situazione (e relativi test alla mano) del livello di sviluppo sia di AMD STREAM che di nVidia CUDA.
Il secondo è anni luce avanti, molto supportato dai titoli attuali e alcuni del passato recente (dal 2006) e sicuramente prenderà piede anche nei prossimi anni per la gestione della fisica direttamente gestita dalle ottime GPU nVidia.
Se alla AMD si adeguano a CUDA non possono che fare l'interesse degli utenti e del mercato,
meno standard (sembra di vedere per analogia l'ennesimo scontro di formato/piattaforma del mondo informatico, come per cd,dvd,br/hdvd,agp,pci-e,ecc.) speriamo non sia cosi anche per la gestione della fisica per le gpu.
amen.
Obelix-it
01-07-2009, 14:05
Mmmh, non so. IO se fossi AMD/ATI, forte della presenza di uno standard gia' esistene (OCL) mi guarderei bene da implementare CUDA sulle mie schede.
Il buon motivo per non farlo ("c'e' gia'uno standard , utilizziamo quello") ce l'ho, ed evito (a) di agevolare il mio rivale nonche' (b) di trovarmi costantemente in svantaggio su un oggetto che, essendo sviluppato da nVidia per nVidia, avra' presumibilmente sempre una resa migliore sulle schede della concorrenza.
Prima di farmi 'massacrare' sui test (che poi magari non contano nulla...) solo per far un favore ai miei rivali, beh, ci penserei un 2-3 mila volte.....
blackshard
01-07-2009, 14:32
No, stavo solo pensando che tutti questi layer castrano parecchio le prestazioni, e se fosse possibile bypassare tutto e far lavorare direttamente il programma( ad esempio di encoding) direttamente sull'hardware, guadagnando prestazioni. :D
Il bello è che negli ultimi venti anni si è fatto il contrario: sono stati aggiunti livelli di astrazione per:
a) evitare che i programmatori si sbattessero con l'hardware
b) implementare una modalità protetta di esecuzione
Lavorare direttamente con l'hardware, sebbene sia interessante dal punto di vista prestazionale, porterebbe a dissolvere tutta una serie di caratteristiche di sicurezza. Praticamente si tornerebbe al vecchio DOS.
blackshard
01-07-2009, 14:36
Concordo. In effetti avevo detto buona volontà perchè pensavo alla solità rivalità tra le due case. Però quel che dice corrisponde al vero.
Bhè se consideri che la 295GTX è scesa di prezzo e rimane la VGA migliore sul mercato e che comunque anche nelle prove che lo stesso HW propone si vede che le soluzioni Nvidia sono spesso le migliori e che i prezzi sono comunque abbastanza allineati, ne concluderei che Nvidia propone nella stragrande maggioranza dei casi soluzioni migliori di ATi. Questo nn toglie che ad esempio per un PC che ho assemblato sul quale deve girare non crysis o farcry 2 ma roba tipo Sims 3 e giodhi nn troppo esosi ma comunque con grafica di qualità, ho scelto una ATi 3850 512Mb in quanto a parità di prestazioni/prezzo Nvidia nn offre molto. Unica pecca i drivers e li si vede molto la differenza. Ma questa è un'altra storia.:)
Sempre molto obiettivo, eh?
A prescindere dal fatto che sei pesantemente OT e che stai cercando di girare la frittata sulla potenza delle schede video, io non direi che la GTX295 sia la migliore, piuttosto è la più potente. La migliore è la scheda che ha il migliore rapporto prezzo/prestazioni, e questo situncolo è abbastanza impietoso sull'attuale line-up nvidia (soprattutto con la gtx295):
http://www.anandtech.com/video/showdoc.aspx?i=3588
CaFFeiNe
01-07-2009, 15:30
fquotoi in pieno blackshard...
crimson hai sgarrato...
ho comprato qualche giorno fa la mia prima ati dai tempi della ati radeon 8500... per una semplice ragione
la 4890, va un 5/8% meno della gtx275....
ma l'ho pagato 30 euro in meno
30 euro su quasi 200 euro, sono circa il 15%....
quindi ati è decisamente MIGLIORE, perchè migliore, significa, miglior rapporto qualita' prezzo....e non piu0 potente....
cosi' come conveniva spendere 20 euro in piu' per la 8800gt piuttosto che la 3870
Ed una GTX260-216SU costa 142 euro, ma non è certo più lenta in tale proporzione della HD4890
Così come HD4870 1Gb costa 128 euro, e non certo più lenta in tale proporzione, sia rispetto alla GTX260 che tanto meno rispetto alla HD4890.
E possiamo continuare così fino a scendere ai 50 euro.
La HD4890 continua ad essere scarsa proprio dal punto di vista del prezzo/prestazioni, oggi, come lo era al debutto.
http://www.techpowerup.com/reviews/Inno3D/GeForce_GTX_295_Platinum/31.html
FINE OT
io avevo provato in xp e codice assembler all'interno di un programma c++
andando a lavorare direttamente sulla ram video
Ciao,
con XP o Vista a 32 bit puoi farlo, in quanto il prompt di MSDOS crea una macchina virtuale x86 con tanto di memoria VGA. Di conseguenza, se il tuo programma cercava di scrivere all'interno della memoria video, in realtà passava prima attraverso questa macchine virtuale (anzi, probabilmente le scritture finivano sulla RAM di sistema).
Su XP/Vista a 64 bit il trucchetto non funziona più, in quanto la modalità X86_64 ha rimosso le estensioni necessarie per creare una modalità Virtual 86...
Ciao. :)
Ciao,
con XP o Vista a 32 bit puoi farlo, in quanto il prompt di MSDOS crea una macchina virtuale x86 con tanto di memoria VGA. Di conseguenza, se il tuo programma cercava di scrivere all'interno della memoria video, in realtà passava prima attraverso questa macchine virtuale (anzi, probabilmente le scritture finivano sulla RAM di sistema).
Su XP/Vista a 64 bit il trucchetto non funziona più, in quanto la modalità X86_64 ha rimosso le estensioni necessarie per creare una modalità Virtual 86...
Ciao. :)
bah non ti so dire, era un programma fatto anni et anni fà (8-9anni) quando ancora studiavo:D
blackshard
01-07-2009, 18:14
Ciao,
con XP o Vista a 32 bit puoi farlo, in quanto il prompt di MSDOS crea una macchina virtuale x86 con tanto di memoria VGA. Di conseguenza, se il tuo programma cercava di scrivere all'interno della memoria video, in realtà passava prima attraverso questa macchine virtuale (anzi, probabilmente le scritture finivano sulla RAM di sistema).
Su XP/Vista a 64 bit il trucchetto non funziona più, in quanto la modalità X86_64 ha rimosso le estensioni necessarie per creare una modalità Virtual 86...
Ciao. :)
Penso che si stia parlando del Virtual Mode 8086. Non è una vera emulazione, ne una virtual machine, piuttosto un sorta di "bolla" in cui si può eseguire codice x86 in modalità reale all'interno di un sistema operativo in modalità protetta:
http://it.wikipedia.org/wiki/Modalit%C3%A0_8086_virtuale
Ovviamente lo scopo è, come al solito, quello di garantire retrocompatibilità con le applicazioni scritte per DOS a 16 bit e che spesso giravano senza particolari problemi anche sotto Windows '95 il cui kernel girava in modalità protetta a 32 bit
quel bill daily deve smetterla di fare lo sborone, non fa altro che lodare le sue schede disprezzando le altre. Altro che scientist, mi sembra marketing e pure bieco
anche in Italia qualcosa si sta muovendo nelle univeristà, il Politenico di Milano da quest'anno ha iniziato a promuovere tesi su CUDA
Foglia Morta
01-07-2009, 20:49
quel bill daily deve smetterla di fare lo sborone, non fa altro che lodare le sue schede disprezzando le altre. Altro che scientist, mi sembra marketing e pure bieco
pare che sia stato male interpretato: http://www.theinquirer.net/inquirer/news/1432307/amd-won-nvidia-cuda-run-gpus
anche in Italia qualcosa si sta muovendo nelle univeristà, il Politenico di Milano da quest'anno ha iniziato a promuovere tesi su CUDA
Fico! Hai qualche link da passarmi? Mi sono laureato li' 3 anni fa, voglio vedere cosa fanno adesso :) e soprattutto che prof seguono quelle tesi?
Crimson Skies
02-07-2009, 09:17
fquotoi in pieno blackshard...
crimson hai sgarrato...
ho comprato qualche giorno fa la mia prima ati dai tempi della ati radeon 8500... per una semplice ragione
la 4890, va un 5/8% meno della gtx275....
ma l'ho pagato 30 euro in meno
30 euro su quasi 200 euro, sono circa il 15%....
quindi ati è decisamente MIGLIORE, perchè migliore, significa, miglior rapporto qualita' prezzo....e non piu0 potente....
cosi' come conveniva spendere 20 euro in piu' per la 8800gt piuttosto che la 3870
Nn mi sembra di aver "sgarrato" (che termine sia poi....).
La 4890 va 5/8% meno della gtx275 per 30€ in meno. Se vogliamo fare la battaglia su poche decine di € sinceramente questo dimostro che Nvidia semmai fa schede migliori e la 4890 è una della schede di punta di ATi. La GTX295 rimane la migliore perchè anche essendo la più costosa è anche quella che da prestazioni migliori di tutte. Ora che anche questa scheda è su PCB singolo non credo si possa più dire niente ad Nvidia. Mi riferisco a quelle accuse di fare schede panino lodando invece ATi sola per fare schede PCB singlo. Inoltre con l'avvento delle prossime G300 dubito che ATi potrà star dietro ad Nvidia. Quindi Il tizio non si sbaglia affatto.
Gabriyzf
02-07-2009, 09:34
"Solo"? Le GF8 sono datate 2006.
ATI supporta pienamente il GPGPU solo dalle 3800, che sono di fine 2007.
Cerchiamo di essere obiettivi.
L'unica cosa che mi appare chiaro, è che i tuoi discorsi non sono chiari.
In ogni caso OCL non è un sostituto delle DX11, che non sono un sostituto di CUDA.
NVIDIA offre questo: possibilità di scelta, possibilità di sporcarsi le mani da subito, e pieno supporto.
Lo standard (se mai ci sarà) lo deciderà poi il mercato, le mazzette, i brogli.
Intanto io mi godo i fatti.
alla faccia dei fanboyismi è questo quelo che conta:
è avanti una, è meglio l'altra...
io intanto uso tmpgenc e la gtx 260 mi dà un bell'aiuto:se avessi avuto Ati questo non sarebbe successo: questi sono fatti, il resto sono chiacchere
Gabriyzf
02-07-2009, 09:44
Questo è esattamente il problema di una tecnologia proprietaria, ed è il motivo per cui CUDA non si affermerà come nVidia vorrebbe.
io vivo alla giornata: oggi nvidia mi aiuta in quello che mi serve, se domani ati farà meglio allora passerò a quest'ultima: nel presente nvidia è per le mie esigenze superiore, stop ;)
Gabriyzf
02-07-2009, 09:53
Eh già.
Il punto è: se domani allo stesso prezzo puoi avere una AMD che va il 50% in più nei giochi oppure una nVidia che supporta l'encoding che fai?
Con uno standard unico questo non succederebbe, sarebbe a vantaggio nostro e svantaggio di nVidia che cerca di ritagliarsi uno spazio di esistenza in un mercato che la sta mettendo a rischio con politiche che già nel breve termine tendono a procurare un danno agli utenti.
Fortunatamente questo non accadrà, per i motivi già detti.
che facciano quello che vogliono, standard o proprietario; a me basta che soddisfino le mie richieste.
Sono comunque anch'io d'accordo in linea di massima su uno standard unico, anche se poi nella storia della tecnologia questo non sempre è accaduto, per motivi quasi sempre politico-economici
Crimson Skies
02-07-2009, 10:26
Vero. Ora tocca vedere cosa faranno.
Dubito che se Nvidia dia una spinta verso uno standard questo vado a suo discapito. Sarebbe come darsi la zappa sui piedi.
Poi se le schede Nvidia costano un pò più di quelle ATì, come Intel più di AMD ci deve essere un motivo. Cioè dico nn credo sia solo un fatto di chi è affezzionato e compra per partito preso.
Ora Nvidia può anche aver avuto battute di arresto però se offre di più mi sembra normale spendere qualcosina in più. Le ottimizzazioni Nvidia per giochi e applicazioni sono migliori di quelle ATi e si vede. E non parlo solo di drivers.
Io sono convinto che la mossa di Nvidia abbia sicuramente a che vedere con una mossa fatta per riguadagnare il terreno perduto ad ATi. Ripeto entrambe fanno soluzioni ottime.
fadeslayer
02-07-2009, 10:53
BD si è imposto solo a livello "politico", a livello pratico non decolla affatto (e chissà mai se lo farà, adesso è presto per dirlo).
Linux Lover
02-07-2009, 14:00
Le migliori SVGA nel prezzo/prestazioni (in generale) sono soltanto 3:
Sapphy ATi Radeon 4850 a 89,00 euro (casual)
XFX nVidia 260GTX a 149,00euro (mainstream)
XFX nVidia 275GTX a 189,00euro (enthusiast)
Outsider = 2x 275 GTX (pro/gamer).. 350euro ?
A mio avviso tutto il resto e da lasciare sugli scaffali. :asd:
Crimson Skies
02-07-2009, 14:50
Le migliori SVGA nel prezzo/prestazioni (in generale) sono soltanto 3:
Sapphy ATi Radeon 4850 a 89,00 euro (casual)
XFX nVidia 260GTX a 149,00euro (mainstream)
XFX nVidia 275GTX a 189,00euro (enthusiast)
Outsider = 2x 275 GTX (pro/gamer).. 350euro ?
A mio avviso tutto il resto e da lasciare sugli scaffali. :asd:
2x275 GTX farebbe più di 350€ esattamente 378 secondo i prezzi da te forniti. Andiamo quiandi a toccare e superare il costo di una 295GTX che va come 2x275 quindi non mi sembra da lasciare sugli scaffali.:D
MiKeLezZ
02-07-2009, 21:35
Infatti il BR è riuscito ad imporsi su HD-DVD perché supportato da un consorzio con numerosi grandi attori e non solo da Sony, e quindi la scelta è diventata tecnica e non politica, valutando pro e contro di entrambe le tecnologie, piuttosto che le possibilità di essere gambizzati dal proprietario della stessa.Niente infatti.
Il HD-DVD era supportato da un consorzio anche maggiore di quello del BR (basti vedere la scelta di Microsoft) ed ebbe anche una partenza migliore (con film in h.264 e non in mpeg-2, come invece furono alcuni dischi BR), e con lettori abbordabili dalla tecnologia migliore (interattività, poi aggiunta anche ai BR).
BR ha vinto perchè Sony aveva la PS3 come cavallo di troia (nei dati di vendita dei lettori si contava anche la console, quindi erano comunque in pareggio, e così come di preferenza delle major).
Il punto di svolta è stato poi quando hanno inziato a comprarsi i favori... Toshiba ha fatto quel che poteva, ma a questi punti è Sony che si è comprata tutti, aggiungi poi che l'HD in sé stesso non tirava abbastanza, ecco che Toshiba è stata costretta a lasciare prematuramente la barca.
Questo che significa?
Standard non standard, consorzio, o Babbo Natale, le decisioni alla fine le prendono solo i soldi :-)
Con una adeguata spintarella potrebbero fare le DX11 a somiglianza di CUDA, o se ATI si stanca di spendere soldi in una concorrenza non è in grado di fare, diventarlo di fatto già da domani. Hai voglia a piangere lo standard unico, la vita non funziona così
Foglia Morta
02-07-2009, 22:43
Niente infatti.
Il HD-DVD era supportato da un consorzio anche maggiore di quello del BR (basti vedere la scelta di Microsoft) ed ebbe anche una partenza migliore (con film in h.264 e non in mpeg-2, come invece furono alcuni dischi BR), e con lettori abbordabili dalla tecnologia migliore (interattività, poi aggiunta anche ai BR).
BR ha vinto perchè Sony aveva la PS3 come cavallo di troia (nei dati di vendita dei lettori si contava anche la console, quindi erano comunque in pareggio, e così come di preferenza delle major).
Il punto di svolta è stato poi quando hanno inziato a comprarsi i favori... Toshiba ha fatto quel che poteva, ma a questi punti è Sony che si è comprata tutti, aggiungi poi che l'HD in sé stesso non tirava abbastanza, ecco che Toshiba è stata costretta a lasciare prematuramente la barca.
Questo che significa?
Standard non standard, consorzio, o Babbo Natale, le decisioni alla fine le prendono solo i soldi :-)
Con una adeguata spintarella potrebbero fare le DX11 a somiglianza di CUDA, o se ATI si stanca di spendere soldi in una concorrenza non è in grado di fare, diventarlo di fatto già da domani. Hai voglia a piangere lo standard unico, la vita non funziona così
Allora seguendo il tuo ragionamento CUDA è destinata a fallire, almeno per le applicazioni maggiormente orientate alla fascia consumer... i soldi sono dalla parte di Intel e nel definire le DirectX Microsoft "ascolta" le parti interessate, Intel compresa. Inoltre tutti i pc hanno una cpu , non tutti i pc hanno una soluzione grafica discreta. Con le OpenCL si sfruttano sia i cores delle gpu che quelli delle cpu. Quindi quando ci saranno Fusion e cpu Sandy Bridge , magari con cores di un Larrabee più evoluto e a 32nm, sarà interesse di AMD e Intel accordarsi per un approccio più efficiente, però nVidia sarà tagliata fuori. Almeno così però gli sviluppatori avranno un idea meglio definita , nel caso di vga discreta potranno sfruttare anche quella ma di base partiranno con l'intenzione di sfruttare cpu+gpu. nVidia ha fino al 2010 per cercare di avvantaggiarsi , dopodichè potrà concentrarsi su applicazioni professionali dove non si bada a spese ( ma con la concorrenza di AMD e Intel ), ma la fascia consumer converrà a tutti che resti in mano a AMD e Intel.
Penso che si stia parlando del Virtual Mode 8086. Non è una vera emulazione, ne una virtual machine, piuttosto un sorta di "bolla" in cui si può eseguire codice x86 in modalità reale all'interno di un sistema operativo in modalità protetta:
http://it.wikipedia.org/wiki/Modalit%C3%A0_8086_virtuale
Ovviamente lo scopo è, come al solito, quello di garantire retrocompatibilità con le applicazioni scritte per DOS a 16 bit e che spesso giravano senza particolari problemi anche sotto Windows '95 il cui kernel girava in modalità protetta a 32 bit
In realtà crea un macchina virtuale vera e propria, con un suo set di registri, propri indirizzi di memoria e proprie porte di I/O. Tra l'altro, c'è anche una mappa di bit che descrive cosa può e cosa non può fare la macchina virtuale 8086.
Comunque, qui siamo OT. ;)
Ciao. :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.