Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

Recensione Samsung Galaxy S26+: sfida l'Ultra, ma ha senso di esistere?
Recensione Samsung Galaxy S26+: sfida l'Ultra, ma ha senso di esistere?
Equilibrio e potenza definiscono il Samsung Galaxy S26+, un flagship che sfida la variante Ultra e la fascia alta del mercato con il primo processore mobile a 2nm. Pur mantenendo l'hardware fotografico precedente, lo smartphone brilla per un display QHD+ da 6,7 pollici d'eccellenza, privo però del trattamento antiriflesso dell'Ultra, e per prestazioni molto elevate. Completano il quadro la ricarica wireless a 20W e, soprattutto, un supporto software settennale
Zeekr X e 7X provate: prezzi, autonomia fino a 615 km e ricarica in 13 minuti
Zeekr X e 7X provate: prezzi, autonomia fino a 615 km e ricarica in 13 minuti
Zeekr sbarca ufficialmente in Italia con tre modelli elettrici premium, X, 7X e 001, distribuiti da Jameel Motors su una rete di 52 punti vendita già attivi. La Zeekr X parte da 39.900 euro, la 7X da 54.100: piattaforma a 800V, chip Snapdragon di ultima generazione, ricarica ultraveloce e un'autonomia dichiarata fino a 615 km WLTP. Le prime consegne sono previste a metà aprile
Marathon: arriva il Fortnite hardcore
Marathon: arriva il Fortnite hardcore
Marathon è il titolo multiplayer competitivo del momento. Ecco quali sono le caratteristiche di gioco principali, insieme alle nostre prime considerazioni dopo qualche "run" nell'extraction shooter di Bungie
Tutti gli articoli Tutte le news

Vai al Forum
Discussione Chiusa
 
Strumenti
Old 16-09-2009, 21:59   #5201
michelgaetano
Senior Member
 
L'Avatar di michelgaetano
 
Iscritto dal: Jun 2007
Città: まったく、必要なのか? Trattative: 40
Messaggi: 28227
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Ancora vr-zone:

Charlie of SemiAccurate reports Nvidia is suffering pathetic yields of 2% on the GT300. While outspoken with his criticism for Nvidia, Charlie is usually right on with the facts, but we will take this figure with a big bag of salt. However, similar news of <10% yields has been confirmed by several sources, including Kyle, editor-in-chief of HardOCP.

http://vr-zone.com/articles/-rumour-....html?doc=7671
<10%... A quanto si dovrebbe arrivare èer una produzioen quantomeno decente?
michelgaetano è offline  
Old 16-09-2009, 22:23   #5202
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Ancora vr-zone:

Charlie of SemiAccurate reports Nvidia is suffering pathetic yields of 2% on the GT300. While outspoken with his criticism for Nvidia, Charlie is usually right on with the facts, but we will take this figure with a big bag of salt. However, similar news of <10% yields has been confirmed by several sources, including Kyle, editor-in-chief of HardOCP.

http://vr-zone.com/articles/-rumour-....html?doc=7671
Per me le due cose non vanno d'accordo...al massimo posso credere che abbiano Yealds attorno al 10% (cioè pessimi) per il resto mi spiace ma affermazioni straordinarie hanno bisogno di prove altrettanto straordinarie

Vedremo...io mi auguro che arrivi il prima possibile (per tutti) anche se non penso riusciranno prima di fine anno.
Kharonte85 è offline  
Old 16-09-2009, 22:31   #5203
A.L.M.
Senior Member
 
L'Avatar di A.L.M.
 
Iscritto dal: Feb 2006
Città: Looking for a place to call home
Messaggi: 5325
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
S'Tardo...

Speriamo di no altrimenti col cavolo che scendono i prezzi...comunque entrambi i rumors sono imho fuffa (perlomeno per ora) solo che uno mi sembra piu' improbabile dell'altro (cioè quello di Demercoso è sicuramente meno verosimile di quello di Fuad...i problemi di TMSC coi 40nm sono noti ma a quei livelli sarebbe una cosa inimmaginabile)
A me sembrano improbabili tutti e due. Uno perchè yield così bassi mi sembrano da record, l'altro perchè novembre per GT300 mi pare troppo presto, così come mi pare presto per parlare già di GX2.

Quote:
Originariamente inviato da Trokji Guarda i messaggi
Potrebbero riuscire a fare un mega chippone con l'attuale processo produttivo..? cioè il doppio della 285.. potrebbe esistere il sistema?
E' da escludere nella maniera più categorica. Bisogna ancora capire quanto differirà da G80 GT300 (penso e spero per NVidia parecchio), ma l'approccio di fondo è tale per cui comunque gli SP di NVidia occuperanno molto più spazio di quelli di ATi, quindi miracoli alla RV770 li vedo impossibili. Tra l'altro RV670 (la base di partenza di RV770) era piccolissimo, mentre G200b non è esattamente un chip microscopico.

Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Altro sulle release dates:

Here's a rough schedule of speculated release dates. Price ranges are included:

* September 22nd - ATI Radeon HD 5850/5870, $249-299 / $349-399 (Cypress). Widespread availability, late-September.
* October, 3rd week - ATI Radeon HD 5750/5770, $149/$199 (Juniper).
* Late-October, early-November - ATI Dual-Cypress "Hemlock" (rumored to be ATI Radeon HD 5870 X2), $499-599.
* Q4 2009 - Nvidia rebrands, (much-delayed) GT200b 40nm shrinks (GT214, GT216, GT218)
* Late-December 2009/January 2010 - Nvidia GT300 (Rumoured to be Nvidia Geforce 380). Widespread availability, Q1 2010.
* Early Q1 2010 - ATI Redwood ($99-$119), Cedar (<$99) (Entry level - rumoured to be 5600 and 5300/5500 series, respectively)
* Q2 2010 - Cypress refresh/die shrink, GT300 derivatives (?)


http://vr-zone.com/articles/-rumours....html?doc=7668
Questa timeline mi sembra molto più realistica.
__________________
A.L.M. @ HWBOT | Personal PC: Asus N56VZ | Work PC: Lenovo Thinkpad T420 (Core i5 2520M, 4GB ram, 320GB 7200rpm) | Mobile device: iPhone 4S
Work It Harder, Make It Better, Do It Faster, Makes Us Stronger, More Than Ever Hour After Hour Work Is Never Over
A.L.M. è offline  
Old 17-09-2009, 02:06   #5204
goldorak
Senior Member
 
Iscritto dal: Apr 2003
Messaggi: 16462
Si mette male, veramente male per G300. Parola di Nvidia :

Quote:

Nvidia: DirectX 11 Will Not Catalyze Sales of Graphics Cards.

DirectX 11 Is Not the Defining Reason to Invest into New Graphics Cards – Nvidia
[09/16/2009 02:03 PM]
by Anton Shilov

Nvidia Corp. said during a conference for financial analysts that the emergence of next-generation DirectX 11 application programming interface will not drive sales of graphics cards. The firm believes that general purpose computing on graphics processing units (GPGPU) as well as its proprietary tools and emergence of software taking advantage of these technologies will be a better driver for sales of graphics boards than new demanding video games and high-end cards.
DirectX 11 - Not Important

“DirectX 11 by itself is not going be the defining reason to buy a new GPU. It will be one of the reasons. This is why Microsoft is in work with the industry to allow more freedom and more creativity in how you build content, which is always good, and the new features in DirectX 11 are going to allow people to do that. But that no longer is the only reason, we believe, consumers would want to invest in a GPU,” said Mike Hard, vice president of investor relations at Nvidia, at Deutsche Bank Securities Technology Conference on Wednesday.

Nvidia believes that special-purpose software that relies on GPGPU technologies will drive people to upgrade their graphics processing units (GPUs), not advanced visual effects in future video games or increased raw performance of DirectX 11-compliant graphics processors.

“Now, we know, people are doing a lot in the area of video, people are going to do more and more in the area of photography… I think that the things we are doing would allow the GPU to be a co-processor to the CPU and deliver better user experience, better battery life and make that computers little bit more optimized,” added Mr. Hara.

There are several problems for Nvidia, though. While ATI, graphics business unit of Advanced Micro Devices, is about to launch its Radeon HD 5800-series graphics cards that fully support DirectX 11 in the upcoming weeks, Nvidia yet has not disclosed any plans regarding its DX11 GPUs, which means that in the eyes of computer enthusiasts the company is not a technology leader any more.

Moreover, the software that takes advantage of Nvidia’s proprietary CUDA GPGPU technology is, in many cases, incompatible with open-standard OpenCL and DirectCompute 11 (DirectX 11 compute shaders) environments, which are supported by ATI Radeon HD 4000 and 5000 families of graphics processors in addition to Nvidia’s latest chips. Even though Nvidia has advantage in terms of higher amount of installed GeForce GPUs and at least some makers of software will decide to make CUDA software, the majority will settle with industry-standard DirectCompute and OpenCL, which puts all the interested parties – ATI/AMD, Intel, Nvidia, etc. – into the same boat, where there will be no advantage of exclusive software. It is not completely clear why Nvidia is trying to downplay the importance of DirectX 11, DirectCompute 11, technologies that enable next-generation software.
Computing Performance More Important than Graphics Performance


Next-generation graphics processors will naturally not only outperform Nvidia’s and ATI current GeForce GTX 200- and Radeon HD 4000-series lines, but also offer support for future games, something, which is more than likely to catalyze many gamers – who usually buy high-end graphics cards for $300 or more – to upgrade their graphics sub-systems. The new graphics cards will allow to increase resolutions of video gaming and increase the amount of enabled visual effects.

Nvidia believes that in future computing performance will matter much more than graphics performance, which seems to make sense as forthcoming video games will demand a lot of purely computing power to process not only visuals, but also physics and artificial experience. Nevertheless, Nvidia seems to put a lot of hopes onto its proprietary technologies, such as CUDA, Stereo 3D Vision, PhysX and others. This is understandable as the aforementioned technologies allow Nvidia to differentiate itself. However, as all proprietary standards (3dfx Glide is one example), they may not continue to be on the leading edge in the longer term.

“Graphics industry, I think, is on the point that microprocessor industry was several years ago, when AMD made the public confession that frequency does not matter anymore and it is more about performance per watt. I think we are the same crossroad with the graphics world: framerate and resolution are nice, but today they are very high and going from 120fps to 125fps is not going to fundamentally change end-user experience. But I think the things that we are doing with Stereo 3D Vision, PhysX, about making the games more immersive, more playable is beyond framerates and resolutions. Nvidia will show with the next-generation GPUs that the compute side is now becoming more important that the graphics side,” concluded Mr. Hara.

Fonte : http://xbitlabs.com/news/video/displ...ics_Cards.html

Come avevo preventivato mesi e mesi fa, Nvidia continua sulla strada del G200, una architettura che privilegia molto dippiu' il GPGPU che la mera forza bruta per i giochi. Certo che sostenere che la grafica e le DX11 non e' piu' il motivo fondamentale per comprare una scheda grafica perlomeno in ambito consumer sa tanto di
__________________
MICROSOFT : Violating your privacy is our priority
goldorak è offline  
Old 17-09-2009, 08:40   #5205
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Purtroppo non sono buone notizie...le dichiarazioni di questo tipo sono decisamente preoccupanti: dimostrano, casomai ce ne fosse bisogno, che nvidia è molto in ritardo...se anche nvidia non arriva presto alle dx11 in pochi cominceranno a sfruttarle seriamente.
Kharonte85 è offline  
Old 17-09-2009, 08:51   #5206
goldorak
Senior Member
 
Iscritto dal: Apr 2003
Messaggi: 16462
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
Purtroppo non sono buone notizie...le dichiarazioni di questo tipo sono decisamente preoccupanti: dimostrano, casomai ce ne fosse bisogno, che nvidia è molto in ritardo...se anche nvidia non arriva presto alle dx11 in pochi cominceranno a sfruttarle seriamente.

Si le dichiarazioni lasciano molto perplesso.
La cosa che emerge pero' e' che Nvidia non vuole percorrere la strada di ATI, quella di offrire soluzioni hardware a costo contenuto.
Preferisce di fatto spingere su "valori aggiunti" software come il stereo 3d o il physx in modo da mantenere "alto" il prezzo delle sue schede.
Se l'eyefinity di ATI e' di nicchia, il 3d stereo lo e' ancora dippiu', e ora con Havok che pare verra' accelerato su OpenCL con il supporto di AMD e Intel mi chiedo cosa abbia Nvidia sul versante software che la permetta di mantenere "artificialmente alto" il prezzo delle sue schede.
Non so, ma la gente che compra schede video vuole performances, e per questo che tutti si scannano sui 2-3 frames/s ad alte risoluzioni con filtri abilitati. Poi viene tutto il resto. Ma fare il contrario non mi pare una buona strategia di marketing. Vedremo.
__________________
MICROSOFT : Violating your privacy is our priority
goldorak è offline  
Old 17-09-2009, 08:57   #5207
ilratman
Senior Member
 
L'Avatar di ilratman
 
Iscritto dal: Apr 2006
Messaggi: 33270
Quote:
Originariamente inviato da goldorak Guarda i messaggi
Si le dichiarazioni lasciano molto perplesso.
La cosa che emerge pero' e' che Nvidia non vuole percorrere la strada di ATI, quella di offrire soluzioni hardware a costo contenuto.
Preferisce di fatto spingere su "valori aggiunti" software come il stereo 3d o il physx in modo da mantenere "alto" il prezzo delle sue schede.
Se l'eyefinity di ATI e' di nicchia, il 3d stereo lo e' ancora dippiu', e ora con Havok che pare verra' accelerato su OpenCL con il supporto di AMD e Intel mi chiedo cosa abbia Nvidia sul versante software che la permetta di mantenere "artificialmente alto" il prezzo delle sue schede.
Non so, ma la gente che compra schede video vuole performances, e per questo che tutti si scannano sui 2-3 frames/s ad alte risoluzioni con filtri abilitati. Poi viene tutto il resto. Ma fare il contrario non mi pare una buona strategia di marketing. Vedremo.
vedremo

potrebbe essere che nvidia stia pensando più alla qualità dell'immagine, cosa per cui ho sempre preferito le quadro alle firegl, o ad altro anche se non ne ho idea di cosa potrebbe essere!
sinceramente se uno deve giocare ati è la scelta migliore come rapporto prezzo/prestazioni!
__________________
HOME PC ® by ilratman: Antec DP301M, i7 12700, 32GB ddr4 corsair pro, Inno3d RTX 3060ti 8gb, ssd samung 980. DELL 2709W.
LAVORO: Un portatile del cavolo con 32GB di ram e la Irisxe
ilratman è offline  
Old 17-09-2009, 09:04   #5208
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Quote:
Originariamente inviato da goldorak Guarda i messaggi
Si le dichiarazioni lasciano molto perplesso.
La cosa che emerge pero' e' che Nvidia non vuole percorrere la strada di ATI, quella di offrire soluzioni hardware a costo contenuto.
Preferisce di fatto spingere su "valori aggiunti" software come il stereo 3d o il physx in modo da mantenere "alto" il prezzo delle sue schede.
Se l'eyefinity di ATI e' di nicchia, il 3d stereo lo e' ancora dippiu', e ora con Havok che pare verra' accelerato su OpenCL con il supporto di AMD e Intel mi chiedo cosa abbia Nvidia sul versante software che la permetta di mantenere "artificialmente alto" il prezzo delle sue schede.
Non so, ma la gente che compra schede video vuole performances, e per questo che tutti si scannano sui 2-3 frames/s ad alte risoluzioni con filtri abilitati. Poi viene tutto il resto. Ma fare il contrario non mi pare una buona strategia di marketing. Vedremo.
Semplicemente temporeggia spostando l'attenzione su features che puo' garantire fin da subito...non penso che nessuno alla nvidia abbia perso di vista il vero obiettivo finale che dovrebbe avere una scheda grafica: le prestazioni nei videogiochi (tutto il resto è secondario)...solo che a questo giro qualcosa è andato storto (ovvero il processo produttivo a 40nm che si è dimostrato a quanto pare pessimo penalizzando fortemente la scelta di nvidia di presentare un chip molto grande) quindi per non affondare (anzi meglio: per non far scappare i topi dalla nave) si fanno determinate affermazioni (anche quando non ci si crede)
Kharonte85 è offline  
Old 17-09-2009, 09:20   #5209
goldorak
Senior Member
 
Iscritto dal: Apr 2003
Messaggi: 16462
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
Semplicemente temporeggia spostando l'attenzione su features che puo' garantire fin da subito...non penso che nessuno alla nvidia abbia perso di vista il vero obiettivo finale che dovrebbe avere una scheda grafica: le prestazioni nei videogiochi (tutto il resto è secondario)...solo che a questo giro qualcosa è andato storto (ovvero il processo produttivo a 40nm che si è dimostrato a quanto pare pessimo penalizzando fortemente la scelta di nvidia di presentare un chip molto grande) quindi per non affondare (anzi meglio: per non far scappare i topi dalla nave) si fanno determinate affermazioni (anche quando non ci si crede)
Ma allora sparate per sparate, non e' meglio farlo in grande stile tipo "la nostra scheda distruggera' la concorrenza, abbiamo la migliore qualita' grafica etc, etc..." ?
Quello che dicono per il momento non ispira molta fiducia.

Un altra cosa non capisco, ATI con i 40nm non ha avuto problemi, essendo in grado di produrre gpu con quasi 2 miliardi di transistor.
Nvidia quanto grande lo sta progettando G300 ? 3-4 miliardi di transistor ? Spero che tutto questo ben di dio rispetto a G200 non siano soltanto circuiti per i floating point in doppia precisione e altre migliorie specifiche soltanto per il gpgpu. Voglio vedere anche un triple vision, consumi molto ridotti sia in idle che sotto sforzo, supporto al Havok su gpu (visto che dietro ce' Intel e quindi non avrebbe senso ignorarlo) etc... Insomma cose concrete per il gamer, colui che compra ls scheda.
__________________
MICROSOFT : Violating your privacy is our priority
goldorak è offline  
Old 17-09-2009, 09:51   #5210
eXeS
Senior Member
 
L'Avatar di eXeS
 
Iscritto dal: Mar 2004
Città: Parma
Messaggi: 5956
Quote:
Originariamente inviato da Bastoner Guarda i messaggi
Giusto per confronto, date un'occhiata alla lista dei giochi che supportano Havok. http://www.havok.com/index.php?page=all
I 13 titoli pubblicati nel precedente post supportano PhysX su GPU, ma PhysX su CPU è supportato anche da qualcun altro http://it.nzone.com/object/nzone_phy...s_home_it.html

Ho la sensazione che molti non hanno ancora capito che ciò che ha fatto nVidia con PhysX è stato semplicemente: aggiungerci uno strato per accelerare alcuni effetti via GPU attraverso CUDA.

PhysX c'è da qualche anno ed è stato usato in molti giochi prima ancora che nVidia acquistasse Ageia, e quello che probabilmente sarà destinato ad estinguersi non è PhysX, ma lo strato attraverso il quale oggi si arriva alla GPU.
__________________
case: phanteks eclipse 500a - cpu: 9800x3d - aio: arctic liquid freezer iii 360 - mobo: msi b650 gaming plus wifi - ram: g.skill flare x5 6000 cl30 - gpu: rtx 5080 fe - storage: samsung 980pro 1tb, 960 evo 500gb, 850pro 512gb - psu: enermax revolution d.f. x 850w
eXeS è offline  
Old 17-09-2009, 10:07   #5211
goldorak
Senior Member
 
Iscritto dal: Apr 2003
Messaggi: 16462
Quote:
Originariamente inviato da eXeS Guarda i messaggi
I 13 titoli pubblicati nel precedente post supportano PhysX su GPU, ma PhysX su CPU è supportato anche da qualcun altro http://it.nzone.com/object/nzone_phy...s_home_it.html

Ho la sensazione che molti non hanno ancora capito che ciò che ha fatto nVidia con PhysX è stato semplicemente: aggiungerci uno strato per accelerare alcuni effetti via GPU attraverso CUDA.

PhysX c'è da qualche anno ed è stato usato in molti giochi prima ancora che nVidia acquistasse Ageia, e quello che probabilmente sarà destinato ad estinguersi non è PhysX, ma lo strato attraverso il quale oggi si arriva alla GPU.
Sbagli, quello che e' destinato ad estinguersi e' proprio PhysX. Nessun sviluppatore usera' PhysX (che tra l'altra funziona soltanto su un sistema in cui sono presenti solo schede Nvidia, non puoi usare una ATI come scheda grafica e una Nvidia per processare la fisica PhysX, devi usare per forza 2 schede Nvidia), quando Havok funziona sia su cpu che gpu (ATI e Nvidia) via OpenCL. Una volta che Intel entra in campo e dai il via libera per la fisica su cpu/gpu la soluzione proprietaria PhysX avra' i giorni contati. E lo sa bene anche Nvidia. Credere il contrario e' sperare in un miracolo.
__________________
MICROSOFT : Violating your privacy is our priority
goldorak è offline  
Old 17-09-2009, 11:07   #5212
Pat77
Senior Member
 
L'Avatar di Pat77
 
Iscritto dal: Nov 1999
Città: Ceranova (PV)
Messaggi: 10382
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Semplicemente vuol dire che non ha niente.

La stessa cosa identica si è vista con le DX10.1, quando dicevano che non servivano ad una mazza e che si sarebbero focalizzati saltando direttamente alle DX11.

Poi si sono smentiti facendo silenziosamente apparire le VGA low end con supporto DX10.1.

Ora continuano a smentirsi dicendo che non servono a nulla nemmeno le DX11.

Il senso è ovvio, non hanno nulla da vendere con sopra il bollino DX11 e spargono FUD nella speranza che qualcuno ci creda...
Perchè, dx10.1, è servito a qualcosa?
Per conto mio basta che siano pronte prima delle nuove console che detteranno i canoni di sviluppo per altri 4-5 anni.
__________________
Sometimes it is the people no one can imagine anything of who do the things no one can imagine. (Alan Turing)
Pkappa Pc: R7 2700x, 16 Gb G.skill TridentZ RGB 2993 mhz 14-14-14-34, Rx Vega 64 8 Gb HBM2, Nzxt 340 elite, Asus MG279Q.
Lord Fx: FX 8350, 16 Gb ram Hyperx 1866 10-11-10-30, Rx 580 8 Gb Nitro+ Sapphire, Corsair 400r, Samsung C24FG73.
Pat77 è offline  
Old 17-09-2009, 11:14   #5213
Athlon 64 3000+
Bannato
 
Iscritto dal: Dec 2003
Città: Monteveglio(Bo)
Messaggi: 10006
Ma Quelli delle Nvidia con il marketing negli ultimi tempi sono per caso impazziti?
Non ho mai negato che a me Nvidia mi è sempre stata antipatica,ma invece che fare sparate del cavolo farebbero bene a darsi una mossa a far uscire GT300 perchè francamente vedere la HD 5870 con un prezzo molto più alto di quanto ho pagato la HD 4870 512M all'uscita non mi fa per niente piacere proprio per mancanza di concorrenza.
Athlon 64 3000+ è offline  
Old 17-09-2009, 11:22   #5214
eXeS
Senior Member
 
L'Avatar di eXeS
 
Iscritto dal: Mar 2004
Città: Parma
Messaggi: 5956
Quote:
Originariamente inviato da goldorak Guarda i messaggi
Sbagli, quello che e' destinato ad estinguersi e' proprio PhysX. Nessun sviluppatore usera' PhysX (che tra l'altra funziona soltanto su un sistema in cui sono presenti solo schede Nvidia
PhysX funziona su qualunque hardware su CPU, e solo alcuni effetti vengono eseguiti dalla GPU, ma l'hai letto il mio post ?

Quote:
Originariamente inviato da goldorak Guarda i messaggi
quando Havok funziona sia su cpu che gpu (ATI e Nvidia) via OpenCL. Una volta che Intel entra in campo e dai il via libera per la fisica su cpu/gpu la soluzione proprietaria PhysX avra' i giorni contati. E lo sa bene anche Nvidia. Credere il contrario e' sperare in un miracolo.
Cioè spiegami meglio, oggi PhysX su GPU rispetto a PhysX su CPU o Havoc ti da qualche fogliettino svolazzante, qualche vetro infranto, insomma qualche effettuccio a cui molti utenti danno un'importanza prossima allo zero.

Quando questi effettucci saranno disponibili anche sulle rosse attraverso Havoc+OpenCL diventeranno così essenziali e importanti per gli utenti, che le soho che da anni usano PhysX conoscendo pregi e difetti dell'SDK, saranno disposti ad abbandanarlo a favore di Havoc per far svolazzare qualche fogliettino sui monitor di tutti i pc ?

Se ciò fosse vero così come nVidia ha scritto il layer CUDA tra PhysX e GPU, perchè non potrebbe scriverlo in OpenCL ?

E' vero che oggi l'operazione ha come scopo primario quello di vendere schede video, ma poichè l'uso di PhysX da parte degli sviluppatori è un ricavo per nVidia che ha quindi interesse nel vendere il numero più alto di licenze, questo potrebbe giustificare anche un porting su OpenCL, mentenendo il layer CUDA e forse promuovere un nuovo slogan, PhysX Run Better On CUDA
__________________
case: phanteks eclipse 500a - cpu: 9800x3d - aio: arctic liquid freezer iii 360 - mobo: msi b650 gaming plus wifi - ram: g.skill flare x5 6000 cl30 - gpu: rtx 5080 fe - storage: samsung 980pro 1tb, 960 evo 500gb, 850pro 512gb - psu: enermax revolution d.f. x 850w
eXeS è offline  
Old 17-09-2009, 11:27   #5215
Pat77
Senior Member
 
L'Avatar di Pat77
 
Iscritto dal: Nov 1999
Città: Ceranova (PV)
Messaggi: 10382
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Se non serve a nulla perché nVidia ne ha inserito il supporto nelle sue entry level dopo due anni a dire che non servivano a nulla?
Perchè 2 anni fa non servivano a nulla e aveva ragione, a ottobre il motivo sarà Windows 7, mi sa che dell nei nuovi inspiron segmento performance metterà le schede con 48sp e dx10.1, con seven preinstallato.
__________________
Sometimes it is the people no one can imagine anything of who do the things no one can imagine. (Alan Turing)
Pkappa Pc: R7 2700x, 16 Gb G.skill TridentZ RGB 2993 mhz 14-14-14-34, Rx Vega 64 8 Gb HBM2, Nzxt 340 elite, Asus MG279Q.
Lord Fx: FX 8350, 16 Gb ram Hyperx 1866 10-11-10-30, Rx 580 8 Gb Nitro+ Sapphire, Corsair 400r, Samsung C24FG73.
Pat77 è offline  
Old 17-09-2009, 11:44   #5216
ilratman
Senior Member
 
L'Avatar di ilratman
 
Iscritto dal: Apr 2006
Messaggi: 33270
Quote:
Originariamente inviato da Pat77 Guarda i messaggi
Perchè 2 anni fa non servivano a nulla e aveva ragione, a ottobre il motivo sarà Windows 7, mi sa che dell nei nuovi inspiron segmento performance metterà le schede con 48sp e dx10.1, con seven preinstallato.
parli dei portatili?

si ha qualche news riguarlo al lineup di dell nei portatili soprattutto professionali?
__________________
HOME PC ® by ilratman: Antec DP301M, i7 12700, 32GB ddr4 corsair pro, Inno3d RTX 3060ti 8gb, ssd samung 980. DELL 2709W.
LAVORO: Un portatile del cavolo con 32GB di ram e la Irisxe
ilratman è offline  
Old 17-09-2009, 12:51   #5217
CoolBits
Senior Member
 
Iscritto dal: Jan 2006
Messaggi: 3217
Quote:
Originariamente inviato da goldorak Guarda i messaggi
Ma allora sparate per sparate, non e' meglio farlo in grande stile tipo "la nostra scheda distruggera' la concorrenza, abbiamo la migliore qualita' grafica etc, etc..." ?
Quello che dicono per il momento non ispira molta fiducia.

Un altra cosa non capisco, ATI con i 40nm non ha avuto problemi, essendo in grado di produrre gpu con quasi 2 miliardi di transistor.
Nvidia quanto grande lo sta progettando G300 ? 3-4 miliardi di transistor ? Spero che tutto questo ben di dio rispetto a G200 non siano soltanto circuiti per i floating point in doppia precisione e altre migliorie specifiche soltanto per il gpgpu. Voglio vedere anche un triple vision, consumi molto ridotti sia in idle che sotto sforzo, supporto al Havok su gpu (visto che dietro ce' Intel e quindi non avrebbe senso ignorarlo) etc... Insomma cose concrete per il gamer, colui che compra ls scheda.
Ati non ha avuto problemi con i 40nm....LOL....dai non scherziamo....le 4770 inesistenti??? ma anche le 58xx potevano uscire prima ma a causa dei problemi di scarsa resa escono solo settimana prossima
__________________
CoolBits è offline  
Old 17-09-2009, 13:07   #5218
kiriranshelo
Senior Member
 
L'Avatar di kiriranshelo
 
Iscritto dal: May 2009
Messaggi: 1234
Quote:
Originariamente inviato da CoolBits Guarda i messaggi
Ati non ha avuto problemi con i 40nm....LOL....dai non scherziamo....le 4770 inesistenti??? ma anche le 58xx potevano uscire prima ma a causa dei problemi di scarsa resa escono solo settimana prossima
La differenza sta che ATI aveva comunque le spalle coperte mentre Nvidia, al momento finchè non uscirà con il chip, ha le spalle completamente scoperte senza possibilità di ribattere
kiriranshelo è offline  
Old 17-09-2009, 13:09   #5219
Pat77
Senior Member
 
L'Avatar di Pat77
 
Iscritto dal: Nov 1999
Città: Ceranova (PV)
Messaggi: 10382
Quote:
Originariamente inviato da ilratman Guarda i messaggi
parli dei portatili?

si ha qualche news riguarlo al lineup di dell nei portatili soprattutto professionali?
a metà novembre dovrebbero uscire le prime configurazioni i7, ma hanno tdp di ben 45W, meglio aspettare Arrandale a 32nm e tdp 20W.
Fonte grafico, xps16 è appena uscito in Ita con 4670, upgrade della 3670, il problema è il calore prodotto, penso/credo che a novembre passeranno a gt220 o gts250M con un nuovo modello, o almeno lo spero.
Inizio anno prossimo una soluzione performance dx11 credo. Per questo mi interessa gt300 dal fratello maggiore si può capire bene o male come sarà il livello di performance.
__________________
Sometimes it is the people no one can imagine anything of who do the things no one can imagine. (Alan Turing)
Pkappa Pc: R7 2700x, 16 Gb G.skill TridentZ RGB 2993 mhz 14-14-14-34, Rx Vega 64 8 Gb HBM2, Nzxt 340 elite, Asus MG279Q.
Lord Fx: FX 8350, 16 Gb ram Hyperx 1866 10-11-10-30, Rx 580 8 Gb Nitro+ Sapphire, Corsair 400r, Samsung C24FG73.
Pat77 è offline  
Old 17-09-2009, 13:24   #5220
ilratman
Senior Member
 
L'Avatar di ilratman
 
Iscritto dal: Apr 2006
Messaggi: 33270
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
DELL ha cominciato da un bel po' a migrare su schede video AMD.
si ma lo ha fatto con schede di fascia bassa, amd ha un'ottima offerta s schede medie.

però il settore portatile la fa da padrona ancora nvidia e solo la fascia bassa dell è occupata da amd!

io vedrei per esempio bene nei precison aver la possibilità di montare anche le firegl oltre che le quadro, almeno avresti la possibilità di scegliere, ma non è così!
__________________
HOME PC ® by ilratman: Antec DP301M, i7 12700, 32GB ddr4 corsair pro, Inno3d RTX 3060ti 8gb, ssd samung 980. DELL 2709W.
LAVORO: Un portatile del cavolo con 32GB di ram e la Irisxe
ilratman è offline  
 Discussione Chiusa


Recensione Samsung Galaxy S26+: sfida l'Ultra, ma ha senso di esistere? Recensione Samsung Galaxy S26+: sfida l'Ultra, m...
Zeekr X e 7X provate: prezzi, autonomia fino a 615 km e ricarica in 13 minuti Zeekr X e 7X provate: prezzi, autonomia fino a 6...
Marathon: arriva il Fortnite hardcore Marathon: arriva il Fortnite hardcore
HP Imagine 2026: abbiamo visto HP IQ all’opera, ecco cosa può (e non può) fare HP Imagine 2026: abbiamo visto HP IQ all’opera, ...
PNY RTX 5080 Slim OC, sembra una Founders Edition ma non lo è PNY RTX 5080 Slim OC, sembra una Founders Editio...
Il Politecnico di Milano guiderà ...
Amazon Leo punta ad aumentare la cadenza...
Pro Type Ergo: Razer si lancia a gamba t...
Artemis II: dal guasto risolto alla toil...
Le immagini e i video più spettac...
Previsioni drastiche di TrendForce: la D...
La PS6 portatile sarà più potente della ...
Toshiba annuncia i primi dischi FC-MAMR ...
Amazon Leo offrirà l'accesso a Internet ...
Alienware presenta i nuovi desktop Area-...
Fiat 600 benzina senza ibrido: 101 CV, c...
DJI Mini 4K Combo a 269€ o DJI Neo da 14...
Addio agli sprechi nel riciclo: il Fraun...
Stoccata a Nintendo: il tribunale USA re...
LG TV 2026: il W6 da 9,9 mm è sen...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 19:35.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v