View Full Version : Driver GeForce 337.50: il tentativo di NVIDIA di superare Mantle nelle prestazioni
Redazione di Hardware Upg
07-04-2014, 13:41
Link alla notizia: http://www.hwupgrade.it/news/skvideo/driver-geforce-33750-il-tentativo-di-nvidia-di-superare-mantle-nelle-prestazioni_51783.html
NVIDIA ha rilasciato i nuovi driver GeForce 337.50 beta, già definiti sulla rete "Mantle Killer", con i quali l'azienda americana assicura un elevato incremento prestazionale con numerosi titoli
Click sul link per visualizzare la notizia.
PaulGuru
07-04-2014, 13:50
Si ma sono beta
Sì, ma è comunque abbastanza scontato che uscissero prima in beta e poi WHQL ;)
MiKeLezZ
07-04-2014, 14:25
LOL!
Just...
LOL!
CrapaDiLegno
07-04-2014, 14:32
Non ho capito i numeri delle percentuali degli incrementi.
Se in BF4 passo da oltre il 115% a meno del 120%, come può essere un incremento del 12%?
Per il resto, più o meno velocie di Mantle poco importa, questi miglioramenti sono per tutti i giochi DX11 non solo 2 (e non in CrossFire).
Da verificare comunque quanto questi incrementi siano veritieri per le generazioni di GPU vecchie e con diversi tipi di CPU.
La parola definitiva ai laboratori di test.
nardustyle
07-04-2014, 14:36
stacco la 290x e rimetto la 560ti ,,,, visti questi driver :sofico: :sofico: :sofico:
oste.... la sapete già .... :D :D :D
pincapobianco
07-04-2014, 14:46
ogni mese escono nuovi drivers...mentre sono 6 mesi che abbiamo sempre gli stessi giochi....questi ci prendono per il culo :asd:
PaulGuru
07-04-2014, 14:56
ogni mese escono nuovi drivers...mentre sono 6 mesi che abbiamo sempre gli stessi giochi....questi ci prendono per il culo :asd:Il supporto ai singoli titoli si può migliorare, non è che appena un driver introduce un primo supporto ad un titolo è automaticamente il massimo, può essere ulteriormente affinato volendo.
nardustyle
07-04-2014, 15:19
Il supporto ai singoli titoli si può migliorare, non è che appena un driver introduce un primo supporto ad un titolo è automaticamente il massimo, può essere ulteriormente affinato volendo.
si per i primi 10 mesi.... poi se ne fregano tanto devono promuovere nuovi prodotti...
almeno con me è successo così con la 560ti e prima con la 8800 gts ... all'inizio ogni driver dava uno spunto (primi 6-7 mesi), appena uscite le nuove serie problemi e abbassamento delle ottimizzazioni fino al blocco dell'overclock con la 560ti cosa che mi ha fatto imbestialire e prendere una 290 .... :mad:
gd350turbo
07-04-2014, 15:28
si per i primi 10 mesi.... poi se ne fregano tanto devono promuovere nuovi prodotti...
Direi che per un annetto di nuova schede top di gamma, non ne escano, quindi hanno tutto il tempo che vogliono per ottimizzare i driver...
almeno con me è successo così con la 560ti e prima con la 8800 gts ... all'inizio ogni driver dava uno spunto (primi 6-7 mesi), appena uscite le nuove serie problemi e abbassamento delle ottimizzazioni fino al blocco dell'overclock con la 560ti cosa che mi ha fatto imbestialire e prendere una 290 .... :mad:
Tra le varie motivazioni del perchè si è cambiato la scheda video, questa direi che sia una delle più originali !
PaulGuru
07-04-2014, 15:28
si per i primi 10 mesi.... poi se ne fregano tanto devono promuovere nuovi prodotti...
Si ma se i nuovi prodotti appunto non escono ................ ricalcano i vecchi.
devAngnew
07-04-2014, 15:30
Non ho capito i numeri delle percentuali degli incrementi.
Se in BF4 passo da oltre il 115% a meno del 120%, come può essere un incremento del 12%?
Per il resto, più o meno velocie di Mantle poco importa, questi miglioramenti sono per tutti i giochi DX11 non solo 2 (e non in CrossFire).
Da verificare comunque quanto questi incrementi siano veritieri per le generazioni di GPU vecchie e con diversi tipi di CPU.
La parola definitiva ai laboratori di test.
Devi cosiderare le % rispetto alle performance di r9-290x con driver mantle.
Piuttosto speriamo che nvidia non stia "truccando" i driver .... :stordita:
Littlesnitch
07-04-2014, 15:31
Mah, a vedere questa review
http://www.guru3d.com/articles_pages/msi_radeon_r9_290x_lightning_review,20.html
le slide nVidia mi sembrano un po taroccate. Comunque appena ho un po di tempo li provo. Magari fosse vero quello che dicono.
Mi puzza di taroccata. Anche se sotto sotto ci spero visto che ho una 770 :D
PaulGuru
07-04-2014, 15:35
Mah, a vedere questa review
http://www.guru3d.com/articles_pages/msi_radeon_r9_290x_lightning_review,20.html
le slide nVidia mi sembrano un po taroccate. Comunque appena ho un po di tempo li provo. Magari fosse vero quello che dicono.
Cosa centra ? :ciapet:
I driver usati sono 334.89 e gli scenari dei test non sono mica uguali per tutte le reviews ( se parli di BF4, guru3D ha testato uno scenario specifico, Nvidia non l'ha specificato ), che siano tarocche o meno di certo non è così che si fanno i raffronti.
nardustyle
07-04-2014, 15:49
Tra le varie motivazioni del perchè si è cambiato la scheda video, questa direi che sia una delle più originali !
vorrei vedere te, se per 1 anno tieni la vga a 1100 mhz e da un giorno all'altro (dai driver 299.99 ai 300.00 ) non puoi superare 999mhz ....
ho perso 3-4 frame che su bf3 che mi facevano comodo (visto che la 560 girava attorno ai 40fps ) ....
carlottoIIx6
07-04-2014, 15:51
loro dicono di aver introdotto ottimizzazioni dx11 e che saranno compatibili 100% con dx12.
che questo sia quello che ci dobbiamo aspettare con dx12?
però attenti, da questi test non si capisce nulla di veramente concreto.
mantle si sa che fa lavorare il sistema al amssimo e quindi togli i colli di bottiglia cpu, qui probabilmente avremo una cpu già bella tosta che non fa da collo di bottiglia e si vedono solo i vantaggi da non aver diminuito i tempi morti di caricamento, ma non si sa come l'hardware ci lavora sopra.
è indubbio, imo, che api di basso livello sono meglio di drive, in quanto le ottimizzazioni drive si possono fare sempre e quindi anche usando mantle.
dei drive non sono sullo stesso livello delle api ed è chiaro che paragonare dei buoni aumenti drive a un modo do concepire le api non ci azzecca proprio nulla. confondere le due cose ovviamente è solo immagine.
PaulGuru
07-04-2014, 15:51
vorrei vedere te, se per 1 anno tieni la vga a 1100 mhz e da un giorno all'altro non puoi superare 999mhz ....
ho perso 3-4 frame che su bf3 !!!OH DIO NON CI DORMO LA NOTTE GUARDA ! :O
E pensare che bastava comprarsi una VGA nuova e cestinare il lerciume.
40fps è sempre Pietoso !
8800 e 560 ? Con quelle a mala pena ci visualizzo il desktop.
CrapaDiLegno
07-04-2014, 15:52
Devi cosiderare le % rispetto alle performance di r9-290x con driver mantle.
Piuttosto speriamo che nvidia non stia "truccando" i driver .... :stordita:
..mmmmm... ma a vedere la slide prima di questo "rivoluzionario driver" c'era già il 9% di divario.
A me interessa vedere quanto questi nuovi driver sono migliori dei precedenti, non rispetto a un'altra tecnologia che non posso usare. Per i confronti diretti ci sono i benchmark veri e propri dei vari siti specializzati, che comunque danno risultati differenti in termini di differenza prestazionale (molto minore di quella evidenziata da nvidia).
appleroof
07-04-2014, 16:01
Se è vero che ci sono questi miglioramenti perchè aspettare tanto visto che giochi dx11 esistono da anni? Ahhh....beata concorrenza :asd:
Il_Baffo
07-04-2014, 16:01
Continuo ancora a non capire perché debbano "ottimizzare" i driver per i giochi.
E' come se la mia macchina dovesse essere "ottimizzata" per andare sulle strade francesi piuttosto che su quelle tedesche...
DirectX è stata fatta proprio per astrarre l'HW dal SW, se poi in mezzo mettono un mega IF del tipo:
If GIOCO == FIFA Then XXX
If GIOCO == THIEF Then YYY
Allora, o i motori grafici sono fatti male, oppure i drivers sono scritti col culo
appleroof
07-04-2014, 16:05
Continuo ancora a non capire perché debbano "ottimizzare" i driver per i giochi.
E' come se la mia macchina dovesse essere "ottimizzata" per andare sulle strade francesi piuttosto che su quelle tedesche...
DirectX è stata fatta proprio per astrarre l'HW dal SW, se poi in mezzo mettono un mega IF del tipo:
If GIOCO == FIFA Then XXX
If GIOCO == THIEF Then YYY
Allora, o i motori grafici sono fatti male, oppure i drivers sono scritti col culo
o tutti e due :asd:
appleroof
07-04-2014, 16:14
sarebbe interessante vedere poi come scalano sti driver su Maxwell (quindi sulla 750ti) per confronto su un'architettura nuova e quindi in prospettiva...
CrapaDiLegno
07-04-2014, 16:17
loro dicono di aver introdotto ottimizzazioni dx11 e che saranno compatibili 100% con dx12.
che questo sia quello che ci dobbiamo aspettare con dx12?
però attenti, da questi test non si capisce nulla di veramente concreto.
mantle si sa che fa lavorare il sistema al amssimo e quindi togli i colli di bottiglia cpu, qui probabilmente avremo una cpu già bella tosta che non fa da collo di bottiglia e si vedono solo i vantaggi da non aver diminuito i tempi morti di caricamento, ma non si sa come l'hardware ci lavora sopra.
è indubbio, imo, che api di basso livello sono meglio di drive, in quanto le ottimizzazioni drive si possono fare sempre e quindi anche usando mantle.
dei drive non sono sullo stesso livello delle api ed è chiaro che paragonare dei buoni aumenti drive a un modo do concepire le api non ci azzecca proprio nulla. confondere le due cose ovviamente è solo immagine.
Carlotto hai un po' di confusione tra cosa sia un driver e una "API".
Mantle è un driver pure anch'esso. Più semplice e diretto di quello presente nelle DX, ma sempre un driver è.
API non vuol dire nulla: sta per Application Programming Interface. Si usa a tutti i livelli (dal basso livello, al quello più alto), si chiama anche interfaccia (o per componenti complessi è un'insieme di interfacce), e serve per permettere a due o più componenti di comunicare e lavorare insieme.
Senza una API definita un componente non sa come chiamare un servizio offerto da un altro componente, come passargli i dati, come recuperarli etc.. etc...
Le "ottimizzazioni" ai driver che fai per DX non sono applicabili a Mantle che gode di altre ottimizzazioni fatte apposta per lui. Quindi dire che le ottimizzazioni che valgono per le DX sono applicabili a Mantle non ha alcun senso. Se ottimizzi un motore Diesel (tipo tramite CommonRail) il tuo motore a benzina non gode di alcunché, dato che è basato su principi di funzionamento diversi anche se alla fine fanno la stessa cosa, trasformare energia chimica in movimento meccanico rotatorio.
La finalità di tutte queste ottimizzazioni che stanno nascendo oggi è la medesima: ridurre gli overhead legati alla CPU (e non alla GPU che già sta dando quasi tutto quello che può).
Fino a ieri nessuno se ne è interessato per un semplice motivo: ogni anno usciva una serie di GPU nuove che surclassavano quelle vecchie. Oggi si prospetta un ritardo di oltre un anno rispetto al lancio abituale di una nuova serie (o architettura) e quindi i produttori sono costretti ad attirare i nuovi acquirenti aumentando le prestazioni dei prodotti sul mercato (che ci staranno ancora per diversi mesi nonostante siano già presenti chi più chi meno da quasi due anni).
ShadowMan
07-04-2014, 16:17
I nuovi driver introducono delle ottimizzazioni DirectX che portano a tempi di caricamento inferiori
Questa è la prima volta che la sento.
Come, regalano un SSD insieme ai driver? :mc: :sofico:
loro dicono di aver introdotto ottimizzazioni dx11 e che saranno compatibili 100% con dx12.
che questo sia quello che ci dobbiamo aspettare con dx12?
No. Leggi bene:
Nella conference si è parlato anche di DirectX 12. NVIDIA punta il dito sul fatto che solo una parte delle GPU DirectX 11 di AMD saranno in grado di supportare le DirectX 12. Invece, il 100% delle GPU DirectX 11 NVIDIA potrà eseguire applicazioni DX 12. Secondo i dati NVIDIA, il 79% della base installata di schede GeForce è già pronta per le DX 12, mentre solamente l'11% delle schede Radeon può vantare questo tipo di compatibilità.
Maxwell, Fermi e Kepler sono, infatti, le GPU NVIDIA che supporteranno le DX 12 nel momento in cui queste ultime verranno rilasciate. Invece, in casa AMD, solo le Radeon basate su architettura Graphics Core Next (GCN) vanteranno questo supporto.
CrapaDiLegno
07-04-2014, 16:25
Continuo ancora a non capire perché debbano "ottimizzare" i driver per i giochi.
E' come se la mia macchina dovesse essere "ottimizzata" per andare sulle strade francesi piuttosto che su quelle tedesche...
DirectX è stata fatta proprio per astrarre l'HW dal SW, se poi in mezzo mettono un mega IF del tipo:
If GIOCO == FIFA Then XXX
If GIOCO == THIEF Then YYY
Allora, o i motori grafici sono fatti male, oppure i drivers sono scritti col culo
Sottoscrivo.
Me lo sono sempre chiesto anche io.
Scaricare 200MB di driver per avere il supporto migliore ai vari titoloni mi sembra davvero un'abberrazione dello sviluppo basato sulle DX.
paulgazza
07-04-2014, 16:28
Per il resto, più o meno velocie di Mantle poco importa, questi miglioramenti sono per tutti i giochi DX11 non solo 2 (e non in CrossFire).
I test di Anand e Toms dicono che i miglioramenti ci sono (10% circa, non male), ma solo in un paio di giochi (Metro LL e BS:Inf)
ok, grazie, ma è ovvio che le slide di nvidia siano il best case, cosi' come lo erano quelle di amd per mantle
carlottoIIx6
07-04-2014, 16:31
Carlotto hai un po' di confusione tra cosa sia un driver e una "API".
Mantle è un driver pure anch'esso. Più semplice e diretto di quello presente nelle DX, ma sempre un driver è.
API non vuol dire nulla: sta per Application Programming Interface. Si usa a tutti i livelli (dal basso livello, al quello più alto), si chiama anche interfaccia (o per componenti complessi è un'insieme di interfacce), e serve per permettere a due o più componenti di comunicare e lavorare insieme.
Senza una API definita un componente non sa come chiamare un servizio offerto da un altro componente, come passargli i dati, come recuperarli etc.. etc...
Le "ottimizzazioni" ai driver che fai per DX non sono applicabili a Mantle che gode di altre ottimizzazioni fatte apposta per lui. Quindi dire che le ottimizzazioni che valgono per le DX sono applicabili a Mantle non ha alcun senso. Se ottimizzi un motore Diesel (tipo tramite CommonRail) il tuo motore a benzina non gode di alcunché, dato che è basato su principi di funzionamento diversi anche se alla fine fanno la stessa cosa, trasformare energia chimica in movimento meccanico rotatorio.
La finalità di tutte queste ottimizzazioni che stanno nascendo oggi è la medesima: ridurre gli overhead legati alla CPU (e non alla GPU che già sta dando quasi tutto quello che può).
Fino a ieri nessuno se ne è interessato per un semplice motivo: ogni anno usciva una serie di GPU nuove che surclassavano quelle vecchie. Oggi si prospetta un ritardo di oltre un anno rispetto al lancio abituale di una nuova serie (o architettura) e quindi i produttori sono costretti ad attirare i nuovi acquirenti aumentando le prestazioni dei prodotti sul mercato (che ci staranno ancora per diversi mesi nonostante siano già presenti chi più chi meno da quasi due anni).
capisco la tua puntualizzazione, però quello che non mi sfugge è che i drive la casa li fa e tu li istalli sul pc. le api le devi mettere nel gioco e quindi il gioco deve essere riscritto includendoli.
se ci rifletti non è poco.
il discorso che faccio è semplice, mentre ogni casa si fa le ottimizzazioni (diverse, mai detto che devono essere uguali) a livello drive, quindi nulla vieta ad amd di mettersi a fare un incremento drive come risposta a nvidia, le api devono essere accolte e sono un un passo avanti notevole tra software e l'hardware cosa che nessun driver da solo può fare. nota l'immagine della terra dove amntle sta sopra il nucleo drive sta a dire che le api legano software e drive meglio.
non so se mi sono spiegato bene.
carlottoIIx6
07-04-2014, 16:32
cut
No. Leggi bene:
era una mi intuizione, ci deve essere un collegamento tra le due cose, che nvidia e microsoft stiano collaborando su dx12?
CrapaDiLegno
07-04-2014, 17:02
capisco la tua puntualizzazione, però quello che non mi sfugge è che i drive la casa li fa e tu li istalli sul pc. le api le devi mettere nel gioco e quindi il gioco deve essere riscritto includendoli.
se ci rifletti non è poco.
il discorso che faccio è semplice, mentre ogni casa si fa le ottimizzazioni (diverse, mai detto che devono essere uguali) a livello drive, quindi nulla vieta ad amd di mettersi a fare un incremento drive come risposta a nvidia, le api devono essere accolte e sono un un passo avanti notevole tra software e l'hardware cosa che nessun driver da solo può fare. nota l'immagine della terra dove amntle sta sopra il nucleo drive sta a dire che le api legano software e drive meglio.
non so se mi sono spiegato bene.
No, non hai capito ancora nulla.
Le API ce le hai nel gioco sia per DX che per Mantle. Sono due API diverse, nel senso che per fare qualcosa bisogna chiamare servizi differenti per DX rispetto a Mantle.
Le API Mantle sono più dirette delle API D3D (nota che ho usato la parola API per entrambi i driver) perché le prime non devono astrarre tutta una serie di cose per funzionare su qualsiasi HW disponibile ma questo è un problema noto da sempre: un driver specifico è molto più efficiente di uno generico che astrae il più possibile. E' lo stesso motivo per cui una applicazione in una VM non andrà mai più veloce dello stesso codice compilato nativamente. Al massimo, se ti va bene, vanno uguali.
Ma l'evoluzione informatica ha perso il supporto specifico per ogni componente diversi anni fa (pensa a Java, alla sua filosofia e ad Android come la sua più grande interpretazione) e il successo delle DX negli anni è proprio dovuto a questo: programmo una volta e giro su tutto l'HW compatibile, lasciando l'onere di interfacciare le API all'HW ad un driver scritto dal produttore dell'HW stesso (che può essere più o meno fatto bene, da qui le ottimizzazioni possibili).
Mantle propone di far girare la ruota al contrario di come si è evoluta fino ad ora: tornare al supporto specifico per ogni componente (architettura in questo caso). Ovvio che fa clamore dire che hai il 10, 20 o 30% in più di efficienza, ma la cosa non combacia con la mole di lavoro necessaria al suo supporto. E se nvidia fa la sua di API a basso livello, che fa lo sviluppatore? Scrive il motore per entrambe le API? E se Intel (che farà GPU scrause ma ha il maggior market share) fa la sua diversa dalle altre che si fa? Supporto a 3 back end di rendering? E con il mobile che sta sempre più inflazionando i dispositivi su cui si può far girare anche motori complessi grazie a Imagination Tech, Qualcomm e ARM?
Appena il mercato si frammenta troppo la mossa successiva è sempre la stessa: nasce la libreria (o insieme di funzioni e driver) che permette di scrivere una volta e eseguire su tutto. Si perde in efficienza in termini assoluti ma si guadagna sotto il profilo dei tempi, costi di sviluppo e sopratutto supporto nel tempo. Oltre che a lasciare piena libertà di sviluppo, dato che una API strettamente legata ad un HW non può essere riusata su un HW diverso a meno di non perdere efficienza. Quindi se vuoi cambiare la tua architettura e usare la stessa API per essere retrocompatibile, o ti pieghi alla stessa legge di inefficienza (questa volta portata a livello HW) o non ti evolvi.
Prova a pensare ad una API Mantle-like sviluppata espressamente per la vecchia architettura VLIW di AMD. Quali vantaggi avresti oggi su CGN che è completamente diversa?
Nessuna. Quindi o su GCN abbandoni la vecchia API perdendo la compatibilità con tutti i motori sviluppati per essa, oppure hai 2 scelte: fai una traslazione nel nuovo driver delle vecchie funzioni per il nuovo HW (che non è né più o meno che tentare di emulare un PPC con HW x86) oppure metti nella nuova architettura dei pezzi inutili atti solo a mantenere la retrocompatibilità con una adeguata efficienza, quindi diminuendo l'efficienza della nuova.
L'approccio di ottimizzare invece una API generica (sia nella sua nuova concezione per le DX12 sia come implementazione nelle attuali DX11) ottiene sicuramente un impatto percentuale minore rispetto ad un driver ad-hoc a basso overhead ma ha il vantaggio di essere universale, nell'HW e nel tempo.
2 cosine che non sono proprio insignificanti e che, come detto, la storia ha giustamente premiato in passato.
Dimonios
07-04-2014, 17:09
http://www.bitsandchips.it/images/2013/09/14/cheatnvidia.jpg
:sofico:
nardustyle
07-04-2014, 17:09
E pensare che bastava comprarsi una VGA nuova e cestinare il lerciume.
40fps è sempre Pietoso !
8800 e 560 ? Con quelle a mala pena ci visualizzo il desktop.
che ti devo di', non avevo i big money ... a livello 100 ci son arrivato pure a 40fps ;)
poi io sopra i 35 non noto sta gran fluidita ,ormai so vecchio ....:D
sto giocando a company of heroes 2 a 40 50 fps pure con la 290x e a me pare fluidissimo
CrapaDiLegno
07-04-2014, 17:18
era una mi intuizione, ci deve essere un collegamento tra le due cose, che nvidia e microsoft stiano collaborando su dx12?
Le DX non sono sviluppate in un bunker a Redmond dove nessuno può entrare. Le DX (in realtà l'API D3D delle DX) sono una API che permette al SW che fa grafica 3D di ottenere dei servizi da parte del drive grafico che sta sotto.
Il driver è SW e può permettersi di fare qualsiasi cosa quando uno chiama un servizio: cioè realizzarlo in SW o quando possibile chiamare precise funzioni (organizzate in altre API fino ad arrivare al vero codice macchina o ai registri) dell'HW sottostante per realizzarlo molto più velocemente.
Quanto più tutto è realizzato via HW naturalmente permette di avere prestazioni maggiori. E' quindi fondamentale per la MS dicutere con chi l'HW lo produce per capire i tempi e i modi con cui certe funzioni possono essere realizzate e decidere per tempo quali saranno queste funzioni affinchè chi l'HW lo produce sia in grado di farlo prima che le DX siano pubblicate in modo che il supporto sia immediato e non richieda 3 o 4 anni (tempi medi per la realizzazione di una nuova architettura).
MS non starà parlando solo con nvidia, ma sicuramente anche con AMD e Intel oltre che probabilmente con qualche altro attore minore nel mondo mobile e agli sviluppatori dei più importanti motori del mondo videoludico.
Non c'è nulla di scandaloso in questo. Ovviamente quelli di nvidia dicono che MS parla con loro e sono loro i fautori di proposte per il miglioramento dell'interfaccia, ma lo sono senza dubbio anche gli altri interlocutori cui ovviamente nvidia non fa cenno.
carlottoIIx6
07-04-2014, 17:27
cut
L'approccio di ottimizzare invece una API generica (sia nella sua nuova concezione per le DX12 sia come implementazione nelle attuali DX11) ottiene sicuramente un impatto percentuale minore rispetto ad un driver ad-hoc a basso overhead ma ha il vantaggio di essere universale, nell'HW e nel tempo.
2 cosine che non sono proprio insignificanti e che, come detto, la storia ha giustamente premiato in passato.
non capisco cosa non avrei capito e cosa mi stai contestando visto che il tuo discorso conferma precisamente cosa volevo dire.
di fatto nvidia a scelto la via delle dx 12 e non di fare nuove api e le dx 12 seguono mantle.
avremo uno scenario in cui dx12 e open gl inglobbano mantle? forse. ma il punto è che non si può paragonare un aggiornamento driver coem quello fatto da nvidia ora a quello che fanno le dx12 e mantle.
si può dire che le dx12 sono l'anti mantle (anche se per me semmai dx11+mantle) e no che questo aggiornamento driver lo sia.
carlottoIIx6
07-04-2014, 17:29
Le DX non sono sviluppate in un bunker a Redmond dove nessuno può entrare. Le DX (in realtà l'API D3D delle DX) sono una API che permette al SW che fa grafica 3D di ottenere dei servizi da parte del drive grafico che sta sotto.
Il driver è SW e può permettersi di fare qualsiasi cosa quando uno chiama un servizio: cioè realizzarlo in SW o quando possibile chiamare precise funzioni (organizzate in altre API fino ad arrivare al vero codice macchina o ai registri) dell'HW sottostante per realizzarlo molto più velocemente.
Quanto più tutto è realizzato via HW naturalmente permette di avere prestazioni maggiori. E' quindi fondamentale per la MS dicutere con chi l'HW lo produce per capire i tempi e i modi con cui certe funzioni possono essere realizzate e decidere per tempo quali saranno queste funzioni affinchè chi l'HW lo produce sia in grado di farlo prima che le DX siano pubblicate in modo che il supporto sia immediato e non richieda 3 o 4 anni (tempi medi per la realizzazione di una nuova architettura).
MS non starà parlando solo con nvidia, ma sicuramente anche con AMD e Intel oltre che probabilmente con qualche altro attore minore nel mondo mobile e agli sviluppatori dei più importanti motori del mondo videoludico.
Non c'è nulla di scandaloso in questo. Ovviamente quelli di nvidia dicono che MS parla con loro e sono loro i fautori di proposte per il miglioramento dell'interfaccia, ma lo sono senza dubbio anche gli altri interlocutori cui ovviamente nvidia non fa cenno.
ero un po più malizioso, visto che nvidia già proclama il 100% compatibile se lo sta ssicurando con trattative come a solito a danno di amd o viene spontaneo? mi sa la prima!
Italia 1
07-04-2014, 17:58
Se non c'era Mantle ? Nvidia faceva uscire driver castrati per sempre ? Ma che cavolo, finchè non c'è uno che dà una scossa, l'altro non si muove mai ! Ma che potenziale ha DAVVERO il nostro hardware ? Sta news mi ha fatto proprio cadere il mondo addosso.
tuttodigitale
07-04-2014, 18:25
La finalità di tutte queste ottimizzazioni che stanno nascendo oggi è la medesima: ridurre gli overhead legati alla CPU (e non alla GPU che già sta dando quasi tutto quello che può).
Anandtech ha parlato esplicitamente che miglioramenti concreti si potranno avere con Mantle anche lato gpu. Non so perchè ostini a dire che il solo vantaggio di Mantle si limiterà alla riduzione dell'overhead. Hai fonti?
nvidia, nella persona di Tony Tamasi, ha bollato la compatibilità delle vecchie gpu con le DX12 da parte di Microsoft come PRESA IN GIRO ("only teased").
Una dichiarazione così forte, fa pensare che i grossi vantaggi si concretizzeranno solo con la nuova generazione di schede grafiche.
ocio :read:
gd350turbo
07-04-2014, 19:14
vorrei vedere te, se per 1 anno tieni la vga a 1100 mhz e da un giorno all'altro (dai driver 299.99 ai 300.00 ) non puoi superare 999mhz ....
ho perso 3-4 frame che su bf3 che mi facevano comodo (visto che la 560 girava attorno ai 40fps ) ....
Io sono passato da una 780 con il voltaggio sbloccato, ad una con il voltaggio che non va oltre 1,212 v a meno di hardmod, e ti giuro che vivo benissimo !!!
Poi se calcoli quelli che perdi ora con la 290, non so, se è stata una buona mossa !
pincapobianco
07-04-2014, 21:24
ragazzi qua il problema è che giochi non ce ne sono...gli ultimi sono usciti 6 mesi fa (Ass Creed 4 e NFS, nov 2013)
Spaccamondi
07-04-2014, 21:26
Alto livello != facilità d'uso
Di solito le robe a basso livello erano anche difficili da usare, non sono ancora riuscito a mettere le mani sulla SDK di mantle, ma dalle informazioni che trapelano, sembrerebbe un'astrazione abbastanza semplice da utilizzare rispetto a una DX (solamente due tipi di oggetti.. evvai XD) e alcuni meccanismi offerti a livello hardware/driver come lo scheduling di rendering da threads multipli (tutt'oggi impossibile, al più hai un thread per il rendering).
Per il resto che ci lamentiamo, abbiamo super CPU e super GPU. con 100 euro di scheda video fai girare un gioco foto-realistico (dettaglio medio, noti poche differenza da quello massimo, con schermi normali) XD che poi sia NVIDIA o AMD che importanza ha? XD. Certo poi c'è chi ha i soldi e vuole arrivare "primo". Io prenderei altri parametri in considerazione, ad esempio se prendo una GPU e la setto per "downcloccarla" al 95% , che speranza ho che mi duri diciamo. ehm 5 anni? Poi ovvio che "devono rompersi" sennò non vendono più XD
Spaccamondi
07-04-2014, 21:32
@pincapobianco:
i giochi ci sono, basta che cerchi giochi indie ce ne sono gratis e a pagamento XD, alcuni sono schifezze altri sono stupeni e non serve una Geforce o una Radeon per goderseli e farsi 2 risate :D
nardustyle
07-04-2014, 21:40
ragazzi qua il problema è che giochi non ce ne sono...gli ultimi sono usciti 6 mesi fa (Ass Creed 4 e NFS, nov 2013)
prova hawken su steam , gratis e proprio bellino
CrapaDiLegno
07-04-2014, 22:04
non capisco cosa non avrei capito e cosa mi stai contestando visto che il tuo discorso conferma precisamente cosa volevo dire.
di fatto nvidia a scelto la via delle dx 12 e non di fare nuove api e le dx 12 seguono mantle.
avremo uno scenario in cui dx12 e open gl inglobbano mantle? forse. ma il punto è che non si può paragonare un aggiornamento driver coem quello fatto da nvidia ora a quello che fanno le dx12 e mantle.
si può dire che le dx12 sono l'anti mantle (anche se per me semmai dx11+mantle) e no che questo aggiornamento driver lo sia.
Contesto il fatto che usi le parole "driver" e "API" come fossero due cose equivalenti.
Un driver è un pezzo di SW che si occupa di interfacciare delle funzioni ad un preciso HW. Una API è un nome generico che si dà ad un insieme ben descritto di funzioni. Un driver ha un'API se vuoi che sia usato. Una API non è un driver.
Nei tuoi commenti precedenti facevi un po' di casini su questo punto.
Non ho capito se hai capito che fare nuove API non è una cosa intelligente in un mondo che si è evoluto cercando di usarne il meno e più universali possibile.
Cosa facciano esattamente questi driver di nvidia non lo so e poco mi interessa (non mi manca mezzo frame per essere più figo), quello che sono contento è che non sia partita la guerra alla inutile API più efficiente al mondo ma che usa 1 sola architettura esistente sulla Terra.
Se non c'era Mantle ? Nvidia faceva uscire driver castrati per sempre ? Ma che cavolo, finchè non c'è uno che dà una scossa, l'altro non si muove mai ! Ma che potenziale ha DAVVERO il nostro hardware ? Sta news mi ha fatto proprio cadere il mondo addosso.
Non capisco perché questo continua idea che AMD abbia fatto tutto per prima e gli altri in 3 mesi abbiano fatto quello che lei, a sua detta, ci ha messo 2 anni a fare.
Probabilmente è che è un po' che MS discute con nvidia e AMD su come ottimizzare le DX, forse addirittura MS ha avuto più stretti rapporti con AMD che le produce la GPU della sua XBox, e da qui sia nata l'idea da parte di AMDdi creare una nuova libreria da usare congiuntamente tra console (MS e Sony) e PC. Un'idea straordinaria dal punto di vista commerciale perché le avrebbe sicuramente garantito il miglior supporto ai titoli su PC per la propria architettura CGN.
Purtroppo non ha avuto alcun successo su console e usata solo su PC non ha alcun senso. Nessuno sano di mente userebbe una API proprietaria che gira su forse il 20% del mercato e che non dà alcun vantaggio economico a chi la usa rispetto ad usare lo standard che è presente sul 100% del mercato.
Il tutto unito al fatto che di GPU nuove non se ne vedranno fino alla fine dell'anno, facendo di questi 3 anni il periodo più lungo in assoluto tra l'uscita di una architettura e la successiva, e quindi necessitando qualcosa di diverso per aumentare le prestazioni e attirare potenziali clienti, la presentazione di driver ottimizzati non mi sembra per nulla una cosa bizzarra.
Cosa siano le DX 12 lo vedremo a tempo debito. L'omino di nvidia ha detto che da Fermi in poi le GPU sono compatibili con quelle API, mentre AMD solo da CGN in poi.
Nessuna API può estrapolare dalla GPU più potenza di quella che già fa a meno che i driver scritti (per qualsiasi API) abbiano qualche problema oppure si interviene su ottimizzazioni ad hoc per certi motori in certe situazioni per certe configurazioni e con spesso limate su effetti o rese.
Come possa fare Mantle a far calcolare più geometria o fare più pixel filling o calcolare più texel o migliorare i calcoli di shading bisognerebbe chiederlo a colui che ha detto che è possibile farlo, o meglio chiedergli perché tali risorse aggiuntive rimangono inutilizzate sotto DX se la CPU non fa da collo di bottiglia (ovviamente).
I soliti miracoli (o sparate) del marketing che poi, come spesso accade, si rivelano la solita mezza verità che i gonzi si bevono come fosse il bicchiere mezzo pieno della migliore birra (tanto è tutto gratis, no?) mentre gli scettici criticano il mezzo bicchiere vuoto.
Io aspetto i risultati per vedere se oltre a quei miseri punti percentuali guadagnati dall'una o dell'altra API in questa o quella particolare configurazione bisogna in realtà aspettare Maxwell o CGN3.0 per avere i reali vantaggi di GPU in grado di fare la differenza. 3 frame in più a me non cambiano la vita da (scarso) videogiocatore anche se il grafico fa sembrare la barretta lunghissima. 30 frame in più (senza pregare madre nvidia o AMD che sia il gioco giusto col motore giusto con la CPU giusta) però magari anche sì.
Scusate su win 8.1 se volessi installare i driver beta di nVidia devo disattivare il controllo firma digitale riavviando il sistema, qualcuno che abbia windows 8.1 me lo sa dire?
gd350turbo
08-04-2014, 09:22
Scusate su win 8.1 se volessi installare i driver beta di nVidia devo disattivare il controllo firma digitale riavviando il sistema, qualcuno che abbia windows 8.1 me lo sa dire?
Installati ieri sera, stessa procedura di win7 !
Littlesnitch
08-04-2014, 09:25
Io sono passato da una 780 con il voltaggio sbloccato, ad una con il voltaggio che non va oltre 1,212 v a meno di hardmod, e ti giuro che vivo benissimo !!!
Poi se calcoli quelli che perdi ora con la 290, non so, se è stata una buona mossa !
Cosa volevi dire che così non si capisce?
gd350turbo
08-04-2014, 09:37
Cosa volevi dire che così non si capisce?
Alla luce dei nuovi driver ( se fanno quello che sembra ) e delle future (???) dx12, forse, passare alla 290 perchè non si cloccava la 560 oltre i 999 mhz, non è stata una buona idea...
Considerazione personale, dato che è una cosa estremamente soggettiva !
PaulGuru
08-04-2014, 09:39
Scusate su win 8.1 se volessi installare i driver beta di nVidia devo disattivare il controllo firma digitale riavviando il sistema, qualcuno che abbia windows 8.1 me lo sa dire?
Han appena detto che il wqhl uscirà a breve dall'uscita di queste beta.
Littlesnitch
08-04-2014, 09:45
Alla luce dei nuovi driver ( se fanno quello che sembra ) e delle future (???) dx12, forse, passare alla 290 perchè non si cloccava la 560 oltre i 999 mhz, non è stata una buona idea...
Considerazione personale, dato che è una cosa estremamente soggettiva !
A vedere le ultime review la 290X è al livello della 780Ti, i benefici degli ultimi driver sono tutti da riscontrare e poi anche la 290X sarà compatibile con le Dx12 e anche qui bisognerà vedere i reali benefici, quindi oggettivamente dire che l'acquisto di una 290X non sia stata una buona idea mi pare azzardato. Io non vedo l'ora di passare dalle 2 780 Lightning a 2 290X Lightning appena saranno disponibili.
Flying Tiger
08-04-2014, 09:57
Han appena detto che il wqhl uscirà a breve dall'uscita di queste beta.
Si infatti , si tratta di aspettare qualche giorno e francamente non mi pare la fine del mondo , anche perchè quelli certificati non richiedono nessuna procedura strana per l' installazione , fermo restando che per quanto mi riguarda ho sempre installato solo e sempre questi ultimi....
:)
gd350turbo
08-04-2014, 10:01
A vedere le ultime review la 290X è al livello della 780Ti, i benefici degli ultimi driver sono tutti da riscontrare e poi anche la 290X sarà compatibile con le Dx12 e anche qui bisognerà vedere i reali benefici, quindi oggettivamente dire che l'acquisto di una 290X non sia stata una buona idea mi pare azzardato. Io non vedo l'ora di passare dalle 2 780 Lightning a 2 290X Lightning appena saranno disponibili.
Appunto come dicevo, è una cosa prettamente soggettiva...
Installati ieri sera, stessa procedura di win7 !
Quindi non mi preoccupo di riavviare e disattivare il forcing per i driver non segnati giusto? Io installo direttamente tramite geForce Experience e faccio fare tutto a lui.
Han appena detto che il wqhl uscirà a breve dall'uscita di queste beta.
Si ok, penso infatti di aspettare i WQHL però ho approfittato di questa occasione per chiedere visto che è da poco che ho 8.1. Mi informo per il futuro. :)
'Sti drivers so' fenomenali, appena installati su una vecchia radeon 3850, e ora in dx11 mi va' più della 780ti.
... (http://3.bp.blogspot.com/-Qn_0pZzn1Ug/T9hGclomy-I/AAAAAAAADHs/7lU41dIW7fE/s1600/Truestory.jpg) :O
Murakami
08-04-2014, 15:40
Continuo ancora a non capire perché debbano "ottimizzare" i driver per i giochi.
E' come se la mia macchina dovesse essere "ottimizzata" per andare sulle strade francesi piuttosto che su quelle tedesche...
DirectX è stata fatta proprio per astrarre l'HW dal SW, se poi in mezzo mettono un mega IF del tipo:
If GIOCO == FIFA Then XXX
If GIOCO == THIEF Then YYY
Allora, o i motori grafici sono fatti male, oppure i drivers sono scritti col culo
MAI capito nemmeno io :rolleyes:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.