PDA

View Full Version : Nvidia PHYsX,una mezza presa in giro?


john18
08-07-2010, 11:07
Non è un thread per fanboy quindi si richiede la massima obiettività in base alla news.
Evitate anche di creare flame inutili ma limitatevi a commentare quanto vi posto.:)


La notizia la potete trovare qui

http://www.tomshw.it/cont/news/physx-a-marce-ridotte-con-la-cpu-nvidia-bara/26145/1.html


Personalmente ritengo ci troviamo di fronte all'ennesima caduta di stile nvidia,poichè non è normale che physX su cpu venga limitato per convincere gli utonti che su gpu è un altro mondo quando la realtà è ben diversa.

Fantomatico
08-07-2010, 11:22
Ho letto la notizia proprio poco fa...non me l'aspettavo ad esser onesto, una brutta sorpresa per chi sperava che le cose stessero realmente come ha sempre detto Nvidia, cioè che una loro gpu di medio-alto livello fosse parecchio più veloce di qualsiasi cpu multicore...questo sarebbe vero, ma perchè ci sono dietro delle evidenti limitazioni che "castrano" le vere potenzialità delle cpu.

Questa parte dell' articolo è forse la più importante:
"L'uso di x87 è stato sconsigliato da diversi anni, con Intel e AMD che raccomandano l'uso delle molto più veloci istruzioni SSE da circa 5 anni. Sulle CPU moderne il codice che usa istruzioni SSE può facilmente lavorare 1,5 - 2 volte più rapidamente rispetto a codice simile che usa istruzioni x87. Usando x87, PhysX ha prestazioni ridotte sui processori e questo chiama in causa i reali benefici di far lavorare PhysX sulla GPU".

roccia1234
08-07-2010, 11:29
Bhe, loro fanno il loro gioco, physx è un dippiù per vendere schede nvidia, e visto il fornello-fermi la cosa è ancora più necessaria. Estendere la compatibilità anche alla cpu (si, ok, anche ora è compatibile, ma rende il gioco ingiocabile, quindi è come se non lo fosse) potrebbe far calare le vendite, quindi non lo fanno.

john18
08-07-2010, 11:30
Ho letto la notizia proprio poco fa...non me l'aspettavo ad esser onesto, una brutta sorpresa per chi sperava che le cose stessero realmente come ha sempre detto Nvidia, cioè che una loro gpu di medio-alto livello fosse parecchio più veloce di qualsiasi cpu multicore...questo sarebbe vero, ma perchè ci sono dietro delle evidenti limitazioni che "castrano" le vere potenzialità delle cpu.

Questa parte dell' articolo è forse la più importante:
"L'uso di x87 è stato sconsigliato da diversi anni, con Intel e AMD che raccomandano l'uso delle molto più veloci istruzioni SSE da circa 5 anni. Sulle CPU moderne il codice che usa istruzioni SSE può facilmente lavorare 1,5 - 2 volte più rapidamente rispetto a codice simile che usa istruzioni x87. Usando x87, PhysX ha prestazioni ridotte sui processori e questo chiama in causa i reali benefici di far lavorare PhysX sulla GPU".



Considerando che poi le SSE si sono evolute suppongo che la situazione sia ampiamente migliore. Comunque brutta cosa veramente,e cosa più spiacevole dover leggere di schieramenti da parte di ati o nvidia con gente che litiga!:rolleyes:

john18
08-07-2010, 11:30
Bhe, loro fanno il loro gioco, physx è un dippiù per vendere schede nvidia, e visto il fornello-fermi la cosa è ancora più necessaria. Estendere la compatibilità anche alla cpu (si, ok, anche ora è compatibile, ma rende il gioco ingiocabile, quindi è come se non lo fosse) potrebbe far calare le vendite, quindi non lo fanno.



Non hai letto bene la news.

The_Kraker
08-07-2010, 11:31
Tieni te lo regalo:

http://tazza.altervista.org/_altervista_ht/mix/estintore.jpg

Probabilmente servirà appena questa discussione verrà vista da tanti users... :asd:

john18
08-07-2010, 11:46
Tieni te lo regalo:

http://tazza.altervista.org/_altervista_ht/mix/estintore.jpg

Probabilmente servirà appena questa discussione verrà vista da tanti users... :asd:


No problem,segnalo a destra e a manca appena iniziano i casini.:D

demiurgous
08-07-2010, 11:47
I più maliziosi potrebbero invece pensare a una decisione presa per far apparire il divario tra CPU e GPU più marcato di quello che è.

Non lo pensano solo i più maliziosi, lo pensano tutti. E' vero, ma soprattutto è secondo me NVidia lo fa per marcare la sua presunta superiorità prestazionale nei confronti delle schede video ATi.

PhysX è una di quelle tecnologie su cui Nvidia fa maggiore campagna marketing per far apparire le GPU (le proprie) sempre più importanti delle CPU. Da mesi vediamo un accesso confronto sul tema tra Nvidia e Intel.

Oh...attenzione...ATi sarà pure una mezza cenerentola acquistata quel dì da AMD, e che non dispone dei mezzi finanziari di altre grandi aziende, ma mettersi contro Intel...non credo che gli convenga.





Comunque sia, ero contentissimo della mia ormai vecchia scheda (Gtx260 BE) per prestazioni, driver ed affidabilità, ma sono passato ad ATi, sia per il miglior rapporto prezzo/prestazioni, ma anche e soprattutto perchè volevo smetterla di supportare un'azienda come NVidia che riesce solo a giocare sporco.
Giocare sporco va bene, parliamoci chiaro, mica viviamo a Tranquillity Lane, non siamo degli imbecilli, si gioca sporco perchè è necessario per emergere, e si gioca sporco da che mondo è mondo, ma quelle di NVidia sono vere e proprie "Cadute di stile" come già detto da john, infatti quando raggiungi una posizione di vantaggio sui mercati, come quella che aveva Nvidia su ATi, è proprio in quel momento che dovresti smettere di giocare sporco ed iniziare a giocare pulito in virtù della tua forza. NVidia è più forte sui mercati e finanziariamente, ma nonostante ciò continua a usare mezzi diversi dalla sana competizione sul prodotto per contrastare ATi, questo è un comportamento che può attirare solo antipatie.

roccia1234
08-07-2010, 11:49
Non hai letto bene la news.

In sintesi?

physx ora usa istruzioni x87 quando eseguito su cpu, istruzioni che intel e amd sconsigliano di usare, dato che sono molto più lente delle SSE. Facendo usare le SSE a physx potremmo ottenere migliori prestazioni di physx su cpu. Perchè Nvidia non le ha ottimizzate? In attesa di risposta, nel frattempo ognuno si faccia le proprie idee.

Quella frase non c'entrava con la news, era una mia considerazione. Prova ad abilitare gli effettini physx senza scheda nvidia... anche con un sistema molto carrozzato il gioco è ingiocabile, quindi sei costretto a disattivarli. Sono compatibili di nome (leggi: il gioco va lo stesso e sono visualizzati) ma di fatto è come se non lo fossero perchè rendono impossibile giocare (a meno che tu non ti adatti al fantasmagorico framerate di 15 FPS con picchi di 20 e minimi sotto i 10), anche con i7 a 3 ghz

http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html

john18
08-07-2010, 11:59
In sintesi?

physx ora usa istruzioni x87 quando eseguito su cpu, istruzioni che intel e amd sconsigliano di usare, dato che sono molto più lente delle SSE. Facendo usare le SSE a physx potremmo ottenere migliori prestazioni di physx su cpu. Perchè Nvidia non le ha ottimizzate? In attesa di risposta, nel frattempo ognuno si faccia le proprie idee.

Quella frase non c'entrava con la news, era una mia considerazione. Prova ad abilitare gli effettini physx senza scheda nvidia... anche con un sistema molto carrozzato il gioco è ingiocabile, quindi sei costretto a disattivarli. Sono compatibili di nome (leggi: il gioco va lo stesso e sono visualizzati) ma di fatto è come se non lo fossero perchè rendono impossibile giocare (a meno che tu non ti adatti al fantasmagorico framerate di 15 FPS con picchi di 20 e minimi sotto i 10), anche con i7 a 3 ghz

http://www.tomshardware.com/reviews/batman-arkham-asylum,2465-10.html




E continui a ripetere un concetto sbagliato...Nella news si dice chiaramente che grazie alle SSE,se sfruttate (cosa che attualmente non avviene),le cpu fornirebbero prestazioni ben superiori rispetto ad un'nvidia dedicata al calcolo della fisica. Attualmente il physx cpu sfrutta un set di istruzioni x87 che a quanto pare sono molto più lente delle SSE,e quindi prestazioni scadenti!

CAPT.HOOK
08-07-2010, 12:00
Non è un thread per fanboy quindi si richiede la massima obiettività in base alla news.
Evitate anche di creare flame inutili ma limitatevi a commentare quanto vi posto.:)


Anche io mi auguro lo stesso ma conoscendo alcuni utenti del forum la vedo dura il proseguimento di una discussione obbiettiva e il piu' possibile pulita...staremo a vedere. :stordita:

Per quanto riguarda l'argomento credo vivamente che l'uscita sul mercato in largo anticipo della nuova serie di Ati Radeon 5xxx che sfruttano (come tutto il mondo sa') le DX11, abbia creato non pochi problemi alla controparte Nvidia che si e' trovata forse per la prima volta, in netto ritardo sul mercato, con dei prodotti ancora non perfezionati e con uno svantaggio da colmare in fattore economico visto il successo delle nuove architetture del produttore canadese.

Questo ha di conseguenza portato ad un inasprimento da parte di Nvidia ancora piu' marcato che si e' trovata e si trova tuttora in condizione di rilanciare a gran voce sul mercato le sue caratteristiche esclusive quali appunto PhysX e Cuda per impressionare i compratori e di conseguenza dare un boost alle proprie vendite. Sebbene Nvidia e' sempre stata al vertice nel settore questo e' stato un colpo piu' duro del previsto che potrebbe compromettere il podio per le schede video del domani e cambiare le carte in tavola.

Mentre prima erano viste come da accessorio, le caratteristiche di PhysX e Cuda stanno ora cercando di entrare con forza e determinazione nel settore dei videogames e questo grazie anche al vantaggio in fattore di partnership che Nvidia continua ad avere con le software house del campo e che da sempre l'ha vista favorita rispetto ad Ati.

Tutto questo portera' ad un distacco ancora piu' marcato tra l'utenza PC che si vedra' costretta a scegliere un prodotto o un altro a seconda delle caratteristiche della propria scheda video anche se magari di ultima generazione. Questo sta gia' accadendo ogni qualvolta apriamo il menu delle impostazioni e ci ritroviamo di fronte ad opzioni blankate o inesistenti, quando ci troviamo a fare un paragone tra VG con o senza accelerazione fisica HW, quanda dobbiamo attendere il rilascio di una patch poiche' un prodotto risulta godibile solo su determinate marche, quando vorremmo usufruire di tutte le caratteristiche che rendono piu' bello un VG e invece ci troviamo a doverci rassegnare seppure la nostra scheda video abbia un mese di vita e sia ancora venduta sopra le 400€...Tutto questo non e' accettabile, specialmente una volta appurato che dietro a questo sipario si nasconde un baro o un tacito accordo che penalizza in primis noi acquirenti.

Non bastava il confronto PC vs Console che vede sempre piu' i secondi come protagonisti indiscussi del panorama videoludico, adesso abbiamo anche lo scontro PC Ati contro PC Nvidia causato niente di meno che da una mossa commerciale e non da un interesse collettivo per dei prodotti migliori. La situazione non porta un vantaggio alla comunita' ma anzi crea delle spaccature e dei malcontenti rispettivamente per gli svantaggi e per i costi che ricordiamo non sono certo esigui. A conclusione ci sentiamo ancora una volta presi in giro poiche' siamo tutti consapevoli che ogni HW di ultima generazione una volta acquistato saprebbe svolgere i medesimi calcoli e con i medesimi risultati se questi non venissero castrati all'origine con lo scopo di creare una diversita' e quindi un favoreggiamento rispetto a un prodotto o ad un altro nella testa del consumatore. ;)

roccia1234
08-07-2010, 14:02
E continui a ripetere un concetto sbagliato...Nella news si dice chiaramente che grazie alle SSE,se sfruttate (cosa che attualmente non avviene),le cpu fornirebbero prestazioni ben superiori rispetto ad un'nvidia dedicata al calcolo della fisica. Attualmente il physx cpu sfrutta un set di istruzioni x87 che a quanto pare sono molto più lente delle SSE,e quindi prestazioni scadenti!

Scusa ma nell'articolo non ho trovato un affermazione del genere, anzi, ho trovato:

Nvidia nelle presentazioni parla di prestazioni da 2 a 4 volte superiori con PhysX gestito dalla GPU rispetto alla CPU, ma con un'adeguata programmazione la differenza potrebbe essere nulla o meno marcata. Ovviamente questa analisi è puramente accademica poiché non ci sarebbe alcun motivo di disabilitare il supporto hardware nei giochi compatibili con PhysX.

Emerge quindi che la gestione di PhysX da parte della CPU potrebbe essere migliore e Nvidia ha (forse) fatto una scelta sbagliata. I più maliziosi potrebbero invece pensare a una decisione presa per far apparire il divario tra CPU e GPU più marcato di quello che è.

Non dicono che le CPU diventerebbero migliori delle GPU, ma del fatto che, usando le SSE, la gestione di physx da parte della cpu può essere (è) migliore della gestione attuale di physx sempre via CPU, ma fatta tramite x87.

cronos1990
08-07-2010, 14:13
Questo è un discorso abbastanza complicato da districare.

Facciamo il punto della situazione. Nvidia, da quando è uscita la serie 4xxx di ATI si è trovata a dover rincorrere la casa canadese. Questo perchè le scelte progettuali introdotte con il G80 (la serie 8xxx) erano state poi spinte il più possibile con la serie successiva, G80 che era stata una sorta di rivoluzione nell'ambito GPU. La sua struttura però comportava una circuiteria interna estremamente complessa e con GPU cosatose da produrre, con numerosi refusi. Nel frattempo ATI metteva la freccia, metteva a frutto una politica che portava avanti da un paio d'anni e si ritrovava con un prodotto migliore sotto diversi punti di vista.

In questo scenario, vanno ad inquadrarsi le politiche aziendali delle due concorrenti. Da un lato ATI che (con AMD) sta puntando all'integrazione con schede madri atte ad ospitare sia CPU che GPU, dall'altro Nvidia che spinge molto sul concetto del GPGPU. In questo contesto si inserisce il discorso di PHYsX e dello stesso CUDA.

Detta in soldoni: tra le tre grosse case informatiche che rivaleggiano in ambiti equivalenti (Intel, AMD/ATI ed Nvidia) la casa californiana è l'unica che non opera nel campo delle CPU. Questo è causa di "problemi" con Intel stessa per quanto riguarda le specifiche delle proprie schede, e non a caso una scheda Nvidia rende al meglio se installata su una scheda madre con chipset Nvidia (sebbene poi per l'uso generico il chipset Nvidia fa alquanto schifo).
Per questo motivo Nvidia spinge parecchio su tutti quegli aspetti che possano permettergli di affermare che una GPU è in grado di lavorare come (e meglio) di una CPU. Non a caso, la tecnologia Fermi è molto spinta proprio per operare nel campo applicativo del GPGPU (che, detta in termini poveri, vuol dire ampliare il campo d'applicazione di una GPU relegandogli alcuni compiti, tradizionalmente appannaggio delle CPU, che svolgerebbe meglio e più velocemente di quest'ultime).

Il discorso che PHYsX, quando a carico della CPU, lavora con un set d'istruzioni meno performante, rientra tranquillamente in questa situazione. E' una carognata? Può darsi, ma d'altronde Nvidia ha il diritto di poter scegliere come le proprie tecnologie devono girare; tanto più se questo porta, soprattutto a livello marketing e pubblicitario, un ritorno non indifferente.
E' lo stesso discorso per cui spesso Nvidia rimarca il fatto che le proprie GPU (per inciso, così come per quelle dell'ATI) sono altamente più performanti di una qualsiasi CPU. E' vero, peccato che dipenda dalla sua particolare strutturazione logica e che a conti fatti questo vale solo quando si eseguono alcuni tipi di istruzioni, mentre in altri ambiti sono totalmente inadatte.

Il discorso delle GPU Fermi va in questa direzione; sono GPU "ristrutturate" per avere magari una resa inferiore in termini di giochi e grafica 3D (cosa che però allo stato attuale non è un problema, dato che una qualsiasi scheda grafica permette di giocare a qualsiasi cosa con tutti gli effetti inimmaginabili) ma che sono portate a lavorare con prestazioni superiori proprio nel campo de GPGPU, cercando quindi di erodere parte del predominio delle CPU.

Sinceramente però dal lato videoludico mi preoccuperei poco; a parte alcune rare eccezioni, che possono sempre capitare, le implementazioni "aggiuntive" derivanti da queste tecnologie sono al momento poche e mal fatte. Spesso molti effetti che si riconducono alla fisica non sono altro che effetti grafici già preimpostati, quando in realtà di utilizzo della fisica c'è ben poco. E per quanto esposto, questi PHYsX è più un prodotto per "commercializzare" il marchio Nvidia verso ambiti di mercato che vuole occupare.

D'altronde in futuro, come diceva giustamente:
Non bastava il confronto PC vs Console che vede sempre piu' i secondi come protagonisti indiscussi del panorama videoludico, adesso abbiamo anche lo scontro PC Ati contro PC Nvidia causato niente di meno che da una mossa commerciale e non da un interesse collettivo per dei prodotti migliori. La situazione non porta un vantaggio alla comunita' ma anzi crea delle spaccature e dei malcontenti rispettivamente per gli svantaggi e per i costi che ricordiamo non sono certo esigui. A conclusione ci sentiamo ancora una volta presi in giro poiche' siamo tutti consapevoli che ogni HW di ultima generazione una volta acquistato saprebbe svolgere i medesimi calcoli e con i medesimi risultati se questi non venissero castrati all'origine con lo scopo di creare una diversita' e quindi un favoreggiamento rispetto a un prodotto o ad un altro nella testa del consumatore. ;)Ma d'altronde, che ci si può fare? E' il mercato questo, e ci sono 2 aziende concorrenti (e forse 3 in futuro) nell'ambito della "fascia alta" delle prestazioni 3D, che a seconda del periodo si scambiano la palma della scheda più performante, e che giustamente cercano di far valere i loro prodotti (e le loro tecnologie) per vendere di più dell'avversario. Anche la ATI ha un suo engine fisico, alla fin fine.

In mezzo a tutto questo ci stanno i produttori di giochi, che difficilmente implementeranno nei loro motori grafici entrambe le tecnologie, ritrovandoci così con giochi che supportano Nvidia ed altri che supportano ATI.

cronos1990
08-07-2010, 14:15
Non dicono che le CPU diventerebbero migliori delle GPU, ma del fatto che, usando le SSE, la gestione di physx da parte della cpu può essere (è) migliore della gestione attuale di physx sempre via CPU, ma fatta tramite x87.Esatto.
Evitiamo di saltare a conclusioni affrettate. Si può ragionevolmente dire che con le istruzioni SSE le prestazioni saranno migliori, ma di quanto nessuno può dirlo, finchè non si riesca a fare una prova sul campo.

Prova che, al momento, pare che la Nvidia non ci permetterà di fare (perchè dipende da loro).

john18
08-07-2010, 14:34
Non dicono che le CPU diventerebbero migliori delle GPU, ma del fatto che, usando le SSE, la gestione di physx da parte della cpu può essere (è) migliore della gestione attuale di physx sempre via CPU, ma fatta tramite x87.



Effettivamente non lo dice...;) Però passare dall'ingiocabile,tipo roba da 5 fps a ben altro,diciamo che il discorso cambia.

roccia1234
08-07-2010, 14:37
[cut]

Ma d'altronde, che ci si può fare? E' il mercato questo, e ci sono 2 aziende concorrenti (e forse 3 in futuro) nell'ambito della "fascia alta" delle prestazioni 3D, che a seconda del periodo si scambiano la palma della scheda più performante, e che giustamente cercano di far valere i loro prodotti (e le loro tecnologie) per vendere di più dell'avversario. Anche la ATI ha un suo engine fisico, alla fin fine.

In mezzo a tutto questo ci stanno i produttori di giochi, che difficilmente implementeranno nei loro motori grafici entrambe le tecnologie, ritrovandoci così con giochi che supportano Nvidia ed altri che supportano ATI.

ti riferisci a intel con larrabee o ad altri produttori?

john18
08-07-2010, 14:37
Questo è un discorso abbastanza complicato da districare.

Facciamo il punto della situazione. Nvidia, da quando è uscita la serie 4xxx di ATI si è trovata a dover rincorrere la casa canadese. Questo perchè le scelte progettuali introdotte con il G80 (la serie 8xxx) erano state poi spinte il più possibile con la serie successiva, G80 che era stata una sorta di rivoluzione nell'ambito GPU. La sua struttura però comportava una circuiteria interna estremamente complessa e con GPU cosatose da produrre, con numerosi refusi. Nel frattempo ATI metteva la freccia, metteva a frutto una politica che portava avanti da un paio d'anni e si ritrovava con un prodotto migliore sotto diversi punti di vista.

In questo scenario, vanno ad inquadrarsi le politiche aziendali delle due concorrenti. Da un lato ATI che (con AMD) sta puntando all'integrazione con schede madri atte ad ospitare sia CPU che GPU, dall'altro Nvidia che spinge molto sul concetto del GPGPU. In questo contesto si inserisce il discorso di PHYsX e dello stesso CUDA.

Detta in soldoni: tra le tre grosse case informatiche che rivaleggiano in ambiti equivalenti (Intel, AMD/ATI ed Nvidia) la casa californiana è l'unica che non opera nel campo delle CPU. Questo è causa di "problemi" con Intel stessa per quanto riguarda le specifiche delle proprie schede, e non a caso una scheda Nvidia rende al meglio se installata su una scheda madre con chipset Nvidia (sebbene poi per l'uso generico il chipset Nvidia fa alquanto schifo).
Per questo motivo Nvidia spinge parecchio su tutti quegli aspetti che possano permettergli di affermare che una GPU è in grado di lavorare come (e meglio) di una CPU. Non a caso, la tecnologia Fermi è molto spinta proprio per operare nel campo applicativo del GPGPU (che, detta in termini poveri, vuol dire ampliare il campo d'applicazione di una GPU relegandogli alcuni compiti, tradizionalmente appannaggio delle CPU, che svolgerebbe meglio e più velocemente di quest'ultime).

Il discorso che PHYsX, quando a carico della CPU, lavora con un set d'istruzioni meno performante, rientra tranquillamente in questa situazione. E' una carognata? Può darsi, ma d'altronde Nvidia ha il diritto di poter scegliere come le proprie tecnologie devono girare; tanto più se questo porta, soprattutto a livello marketing e pubblicitario, un ritorno non indifferente.
E' lo stesso discorso per cui spesso Nvidia rimarca il fatto che le proprie GPU (per inciso, così come per quelle dell'ATI) sono altamente più performanti di una qualsiasi CPU. E' vero, peccato che dipenda dalla sua particolare strutturazione logica e che a conti fatti questo vale solo quando si eseguono alcuni tipi di istruzioni, mentre in altri ambiti sono totalmente inadatte.

Il discorso delle GPU Fermi va in questa direzione; sono GPU "ristrutturate" per avere magari una resa inferiore in termini di giochi e grafica 3D (cosa che però allo stato attuale non è un problema, dato che una qualsiasi scheda grafica permette di giocare a qualsiasi cosa con tutti gli effetti inimmaginabili) ma che sono portate a lavorare con prestazioni superiori proprio nel campo de GPGPU, cercando quindi di erodere parte del predominio delle CPU.

Sinceramente però dal lato videoludico mi preoccuperei poco; a parte alcune rare eccezioni, che possono sempre capitare, le implementazioni "aggiuntive" derivanti da queste tecnologie sono al momento poche e mal fatte. Spesso molti effetti che si riconducono alla fisica non sono altro che effetti grafici già preimpostati, quando in realtà di utilizzo della fisica c'è ben poco. E per quanto esposto, questi PHYsX è più un prodotto per "commercializzare" il marchio Nvidia verso ambiti di mercato che vuole occupare.






Non confondiamo le politiche atte a "truffare",o concorrenza sleale,con le reali capacità di implementare qualcosa che effettivamente rispetto a qualcos'altro dà effettivi vantaggi. Son tutti bravi ad attuare la prima ipotesi...;)

Ragioniamo su una cosa,nell'articolo si entra nel campo delle probabilità,però se nvidia ha deciso di non lasciare che siano le SSE a gestire il tutto,un motivo ci sarà. Più precisamente se nonostante le SSE la differenza fosse abbastanza elevata a favore delle gpu nvidia,non credete che avrebbero intrapreso la strada delle SSE?

roccia1234
08-07-2010, 15:19
Non confondiamo le politiche atte a "truffare",o concorrenza sleale,con le reali capacità di implementare qualcosa che effettivamente rispetto a qualcos'altro dà effettivi vantaggi. Son tutti bravi ad attuare la prima ipotesi...;)

Ragioniamo su una cosa,nell'articolo si entra nel campo delle probabilità,però se nvidia ha deciso di non lasciare che siano le SSE a gestire il tutto,un motivo ci sarà. Più precisamente se nonostante le SSE la differenza fosse abbastanza elevata a favore delle gpu nvidia,non credete che avrebbero intrapreso la strada delle SSE?

mmmh... a che pro? Nel senso, nvidia è sempre una industria e come tale ha come obiettivo ultimo il profitto, quindi non penso faccia cose inutili o che non portino vantaggi (a breve o lungo termine).

Nel caso in cui le SSE apportassero solo vantaggi marginali (in termini di FPS), il gioco non sarebbe ancora giocabile, a meno di grossi compromessi. Se portassero gli FPS minimi (mi baso sempre sull'articolo di tom's) da 10 a 15 ci sarebbe già un buon miglioramento (50%) però il gioco risulterebbe ancora parecchio scattoso. A sto punto praticamente tutti disabiliterebbero physx su vga non nvidia (pensa ha chi ha preso una 5870 e deve decidere se giocare a 60 fps fissi o a fps variabili tra 35-40 e 15. Io sceglierei la prima senza battere ciglio, ma credo anche chi ha vga inferiori o cpu non proprio potentissime) e saremmo punto e a capo. Sforzo di programmazione inutile.

Nel caso in cui le SSE portino le prestazioni delle cpu al livello delle vga o poco sotto, al momento attuale ancora meno gente si filerebbe nvidia o acquisterebbe una vga verde da dedicare a physx. E poi chi glielo fa fare a nvidia di foraggiare ancora le case per far usare sto cavolo di physx quando non avrebbe ritorno economico (leggi: lo usano anche gli avversari)? Sempre più case potrebbero iniziare ad usare havok (o altri motori fisici concorrenti) con conseguente calo di interesse verso physx ed (eventualmente) le vga nvidia. Peggiorerebbe la situazione.

In entrambi i casi programmare con le SSE non apporterebbe vantaggi a nvidia, quindi perchè farlo?

Senza contare, poi, che physx su cpu non sfrutta neanche il multicore, cosa molto strana dato che le gpu, su cui gira splendidamente, hanno moltissimi stream processor, quindi dovrebbe essere ottimizzato per il calcolo parallelo. Se guardi la rece di tom, l'occupazione di cpu è sempre di un core e mezzo. Uno lavorerà per physx, il mezzo per i calcoli del gioco (credo). Già sfruttando il multicore, sempre con x87, si potrebbero almeno raddoppiare le prestazioni su cpu, usando anche le SSE si potrebbe andare a triplicare o addirittura quadruplicare le prestazioni rispetto a quello che vediamo oggi. Ovviamente sarebbe una perdita di valore non da poco per le vga nvidia

john18
08-07-2010, 16:27
mmmh... a che pro? Nel senso, nvidia è sempre una industria e come tale ha come obiettivo ultimo il profitto, quindi non penso faccia cose inutili o che non portino vantaggi (a breve o lungo termine).

Nel caso in cui le SSE apportassero solo vantaggi marginali (in termini di FPS), il gioco non sarebbe ancora giocabile, a meno di grossi compromessi. Se portassero gli FPS minimi (mi baso sempre sull'articolo di tom's) da 10 a 15 ci sarebbe già un buon miglioramento (50%) però il gioco risulterebbe ancora parecchio scattoso. A sto punto praticamente tutti disabiliterebbero physx su vga non nvidia (pensa ha chi ha preso una 5870 e deve decidere se giocare a 60 fps fissi o a fps variabili tra 35-40 e 15. Io sceglierei la prima senza battere ciglio, ma credo anche chi ha vga inferiori o cpu non proprio potentissime) e saremmo punto e a capo. Sforzo di programmazione inutile.

Nel caso in cui le SSE portino le prestazioni delle cpu al livello delle vga o poco sotto, al momento attuale ancora meno gente si filerebbe nvidia o acquisterebbe una vga verde da dedicare a physx. E poi chi glielo fa fare a nvidia di foraggiare ancora le case per far usare sto cavolo di physx quando non avrebbe ritorno economico (leggi: lo usano anche gli avversari)? Sempre più case potrebbero iniziare ad usare havok (o altri motori fisici concorrenti) con conseguente calo di interesse verso physx ed (eventualmente) le vga nvidia. Peggiorerebbe la situazione.

In entrambi i casi programmare con le SSE non apporterebbe vantaggi a nvidia, quindi perchè farlo?

Senza contare, poi, che physx su cpu non sfrutta neanche il multicore, cosa molto strana dato che le gpu, su cui gira splendidamente, hanno moltissimi stream processor, quindi dovrebbe essere ottimizzato per il calcolo parallelo. Se guardi la rece di tom, l'occupazione di cpu è sempre di un core e mezzo. Uno lavorerà per physx, il mezzo per i calcoli del gioco (credo). Già sfruttando il multicore, sempre con x87, si potrebbero almeno raddoppiare le prestazioni su cpu, usando anche le SSE si potrebbe andare a triplicare o addirittura quadruplicare le prestazioni rispetto a quello che vediamo oggi. Ovviamente sarebbe una perdita di valore non da poco per le vga nvidia


E bravo hai centrato il punto...Non solo utilizzano un set di istruzioni prestazionalmente inadatto,ma non sfrutta nemmeno i multicore. Se logicamente 2+2 fa 4,è altrettanto logico che probabilmente si superebbero le prestazioni della gpu con fisica,se ci fosse una programmazione fatta come si deve!

Insomma physX è puro marketing!

CAPT.HOOK
08-07-2010, 16:37
Insomma physX è puro marketing!

Da Nvidia che ti aspettavi? :D

MadJackal
08-07-2010, 20:11
Su Beyond3d l'han scoperto millenni orsono, che NVIDIA *casualmente* penalizza in modo eccessivo le CPU in PhysX.

cronos1990
09-07-2010, 07:02
Non confondiamo le politiche atte a "truffare",o concorrenza sleale,con le reali capacità di implementare qualcosa che effettivamente rispetto a qualcos'altro dà effettivi vantaggi. Son tutti bravi ad attuare la prima ipotesi...;)

Ragioniamo su una cosa,nell'articolo si entra nel campo delle probabilità,però se nvidia ha deciso di non lasciare che siano le SSE a gestire il tutto,un motivo ci sarà. Più precisamente se nonostante le SSE la differenza fosse abbastanza elevata a favore delle gpu nvidia,non credete che avrebbero intrapreso la strada delle SSE?Non ho mai parlato di truffa o di concorrenza sleale. Il punto è che, come giustamente dici:

Insomma physX è puro marketing!Quello che ti sto dicendo io è che non è un concetto di marketing legato alle mere prestazioni grafiche. C'è un discorso ben più ampio dietro.

Il discorso di roccia1234 è giustissimo è logico, quello che contesto è la premessa di partenza. Nvidia non vuole dimostrare che PHYsX fa schifo sulle CPU e va alla grande con le sue GPU, o che per le prestazioni grafiche una GPU è migliore di una CPU (il che non è che ci vuole un genio per capirlo); non è neanche un discorso di Frame Rate dei giochi e di come su questo incide PHYsX.

Nvidia si sta ponendo l'arduo obiettivo di andare ad occupare aree di calcolo sui PC finora dedicate alla CPU, che non necessariamente riguardano la grafica 3D od i giochi. Vuole riuscire a vendere GPU per fare lavori che attualmente non competono alle schede grafiche. Quello è il nocciolo della questione (che ci riesca, ovviamente, è tutto da vedere ed è un progetto a lungo termine).
In questo ambito la notizia linkata non è che una delle mosse che la casa Californiana sta mettendo in atto per tale scopo. Lo stesso dicasi per CUDA, per il fatto che non ha mai rilasciato ad Intel il set d'istruzioni dello SLI per usare più schede Nvidia sullo stesso PC (per quello serve una MB con Chipset Nvidia, a differenza di ATI che ha rilasciato il set d'istruzioni per la Intel) e così via.

Il fatto che non è tanto un discorso di prestazioni grafiche 3D sui giochi te lo dimostrano le schede grafiche con tecnologia Fermi; in questo caso hanno ideato un'architettura che addirittura penalizza (almeno sulla carta) le prestazioni 3D e dei giochi, per favorire proprio una capacità elaborativa superiore in altri campi.

Insomma, non soffermarsi all'apparenza ma avere il quadro d'insieme più ampio.

topgun90
09-07-2010, 08:08
sono stato acquirente nvidia dai tempi della geforce fx 5600!!!! avevo cambiato la mia ati rage 128 pro con la suddetta scheda(bei tempi).Dopodichè ,l'ho cambiata con la 7600 gt e infine con la 9600 gt.Non avendo mai avuto possibilità economiche elevate ho acquistato sempre schede di fascia media,la 5600 perchè la sua rivale 9600 di ati era più performante ma ricordo costava molto di più,la 7600 gt perchè era più performante della controparte ati ed inoltre aveva i pixel sharder 3.0(se non sbaglio) e poi infine ho preso la 9600 gt perchè mi era stata proposta ad un prezzo irrisorio...sono stato sempre legato a nvidia.Ora sono passato ad ati,alla 5770...non ho avuto problemi di driver fino ad adesso,ottime prestazioni e ottimo rapporto consumi\prestazioni della scheda.Ho deciso di passare ad ati perchè nvidia non c'era e non c'è ancora nella fascia media delle directx 11 ,lasciando perdere phisx perkè sono pochissimi i giochi che la supportano e con effetti davvero ridicoli.....dite che phisix sia marketing? sono daccordo con voi.....penso che lo fosse dai tempi delle shede ageia(si scrive così giusto?)!comportamenti sleali o no di nvidia,sono atteggiamenti tipici di un'impresa in concorrenza...è chiaro che se phisix fosse elaborata dalla cpu con le medesime prestazioni delle gpu nvidia,chi le avrebbe comprate? nessuno! e cmq sappiamo tutti che phisix è una tecnologia zombie,che cammina morta spinta dall'influenza di nvidia.....bad company 2 non sfrutta phisix eppure ha degli effetti "fisici" fantastici....dunque presumi che phisix non sia poi così tanto indispensabile per farci vedere muri che crollamo ecc!
L'amara verità è che dove nvidia non arriva con la testa,ci arriva con i soldi purtroppo con atteggiamenti non molto consoni....prima era ati ad inseguire,ora è il contrario e purtroppo nvidia deve capire che agli utenti phisix non è tutto....è giusto puntare su una tecnologia propria ma non trasformarla in ciò che dovrebbe rendere la scheda un must buy!

Xilema
09-07-2010, 08:35
Da un punto di vista prettamente etico non posso che deplorare la scelta di nVidia (nonostante abbia una scheda nVidia), ma guardando la cosa dal punto di vista commerciale... ci sta tutta.
Partendo dal presupposto che nVidia non fa beneficienza e che ha speso dei bei soldoni per acquistare la tecnologia PhysX, sarebbe come lamentarsi perchè la tecnologia fichissima "X" della marca automobilistica "Y" non viene applicata su tutte le auto del pianeta, che tecnicamente potrebbero supportarla.
Alla fine è una questione di soldi e business (come sempre): nVidia ha fatto un investimento e vuole realizzare, gli utenti si adeguando di conseguenza... ed il mercato pure.
Anzi, da un punto di vista prettamente commerciale... nVidia sarebbe stupida a non fare quello che fa: ha un cavallo potenzialmente vincente come PhysX... ed è giusto che lo sfrutti.
Io non ho comprato una scheda nVidia perchè supporta bene PhysX (l'ho comprata anche per quello, ma in minima parte): se c'è qualcuno disposto a spendere soldoni per tutto questo... farà il gioco nVidia, altrimenti giocheremo anche senza PhysX e non moriremo di certo...

Jon Irenicus
09-07-2010, 08:54
Da un punto di vista prettamente etico non posso che deplorare la scelta di nVidia (nonostante abbia una scheda nVidia), ma guardando la cosa dal punto di vista commerciale... ci sta tutta.
Partendo dal presupposto che nVidia non fa beneficienza e che ha speso dei bei soldoni per acquistare la tecnologia PhysX, sarebbe come lamentarsi perchè la tecnologia fichissima "X" della marca automobilistica "Y" non viene applicata su tutte le auto del pianeta, che tecnicamente potrebbero supportarla.
Alla fine è una questione di soldi e business (come sempre): nVidia ha fatto un investimento e vuole realizzare, gli utenti si adeguando di conseguenza... ed il mercato pure.
Anzi, da un punto di vista prettamente commerciale... nVidia sarebbe stupida a non fare quello che fa: ha un cavallo potenzialmente vincente come PhysX... ed è giusto che lo sfrutti.
Io non ho comprato una scheda nVidia perchè supporta bene PhysX (l'ho comprata anche per quello, ma in minima parte): se c'è qualcuno disposto a spendere soldoni per tutto questo... farà il gioco nVidia, altrimenti giocheremo anche senza PhysX e non moriremo di certo...Quoto e personalmente mi limiterò a trascurare la cosa sperando il physx non diventi indispensabile prendendo la scheda che mi sembra più conveniente per il mio pc... E infatti in sto momento ho ati...

cronos1990
09-07-2010, 08:59
Mah guardate, io mi preoccuperei molto poco del discorso PHYsX.

I giochi che implementano tale tecnologia sono pochi, ed in quei pochi si tratta di particolari. Data che Nvidia ha ben altre mire di mercato, è più che lampante che, almeno nel breve periodo, questo non è altro che un marchio commerciale.

Il giorno che diventerà indispensabile, SE diventerà indispensabile, è talmente lontano che nel frattempo le console avranno dominato il mondo :asd:

Jon Irenicus
09-07-2010, 09:05
Mah guardate, io mi preoccuperei molto poco del discorso PHYsX.

I giochi che implementano tale tecnologia sono pochi, ed in quei pochi si tratta di particolari. Data che Nvidia ha ben altre mire di mercato, è più che lampante che, almeno nel breve periodo, questo non è altro che un marchio commerciale.

Il giorno che diventerà indispensabile, SE diventerà indispensabile, è talmente lontano che nel frattempo le console avranno dominato il mondo :asd:
E gli imperatori indiscussi saranno loro!:asd:
http://img78.imageshack.us/img78/5695/pinkyandbraintracedun9.th.jpg (http://img78.imageshack.us/i/pinkyandbraintracedun9.jpg/)

cronos1990
09-07-2010, 09:11
E gli imperatori indiscussi saranno loro!:asd:
http://img78.imageshack.us/img78/5695/pinkyandbraintracedun9.th.jpg (http://img78.imageshack.us/i/pinkyandbraintracedun9.jpg/):asd:

ally
09-07-2010, 09:15
Da un punto di vista prettamente etico non posso che deplorare la scelta di nVidia (nonostante abbia una scheda nVidia), ma guardando la cosa dal punto di vista commerciale... ci sta tutta.
Partendo dal presupposto che nVidia non fa beneficienza e che ha speso dei bei soldoni per acquistare la tecnologia PhysX, sarebbe come lamentarsi perchè la tecnologia fichissima "X" della marca automobilistica "Y" non viene applicata su tutte le auto del pianeta, che tecnicamente potrebbero supportarla.
Alla fine è una questione di soldi e business (come sempre): nVidia ha fatto un investimento e vuole realizzare, gli utenti si adeguando di conseguenza... ed il mercato pure.
Anzi, da un punto di vista prettamente commerciale... nVidia sarebbe stupida a non fare quello che fa: ha un cavallo potenzialmente vincente come PhysX... ed è giusto che lo sfrutti.
Io non ho comprato una scheda nVidia perchè supporta bene PhysX (l'ho comprata anche per quello, ma in minima parte): se c'è qualcuno disposto a spendere soldoni per tutto questo... farà il gioco nVidia, altrimenti giocheremo anche senza PhysX e non moriremo di certo...

...si ma quando certe news arrivano alle orecchie dei clienti i chitarrini girano...se già ho comprato una scheda nvidia perchè mi costringi ad affiancarne una seconda per la fisica?...abilitami tutte le feature lato cpu e che sia finita...non vendermi aria fritta come l'unica maniera per fruire di alcuni effetti...è palese che la tecnologia è sua e la gestisce come meglio crede ma la vende come un valore aggiutno legato all'hardware quando non lo è...è solo un giochino software...

...ciao Andrea...

Xilema
09-07-2010, 09:28
...si ma quando certe news arrivano alle orecchie dei clienti i chitarrini girano...se già ho comprato una scheda nvidia perchè mi costringi ad affiancarne una seconda per la fisica?...abilitami tutte le feature lato cpu e che sia finita...non vendermi aria fritta come l'unica maniera per fruire di alcuni effetti...è palese che la tecnologia è sua e la gestisce come meglio crede ma la vende come un valore aggiutno legato all'hardware quando non lo è...è solo un giochino software...

...ciao Andrea...


Bon, allora fai a meno di comprare schede nVidia e Mafia 2: se ritieni che ti abbiano preso in giro... l'unica arma che hai a disposizione è quella di boicottarli.

cronos1990
09-07-2010, 09:51
Attenzione però, PHYsX non viene gestito con schede/circuiteria/chip aggiuntivi, ma è semplicemente un set d'istruzioni (delle API per la precisione) che permettono ad una data tecnologia di sfruttare certi effetti.

Tanto per capirci, è tutto già compreso nella GPU, e basta un set d'istruzioni (x87 od eventualmente SSE) per far funzionare tali API su una CPU Intel.
Ovvio che se compri una scheda ATI, Nvidia non ti fornisce certo le API di PHYsX nè gli strumenti per utilizzarla.

II ARROWS
09-07-2010, 11:23
sarebbe come lamentarsi perchè la tecnologia fichissima "X" della marca automobilistica "Y" non viene applicata su tutte le auto del pianeta, che tecnicamente potrebbero supportarla.
Sbagliato.
Sarebbe come se la tecnologia fichissima "X" della marca automobilistica "Y" venisse applicata su tutte le auto del pianeta che tecnicamente potrebbero supportarla, ma la marca automobilistica "Y" fornisse il prodotto con un solo tubo da 2 cm di diametro, mentre sulle sue macchine montasse 10 tubi da 5 cm di diametro.
la vende come un valore aggiutno legato all'hardware quando non lo è...è solo un giochino software...Qualcuno l'ha mai pensato?
Quando nvidia ha comprato Ageia, magicamente tutte le schede video GeForce 8xxx nel pianeta hanno subito un aggiornamento hardware automatico per supportare la fisica...

E conosco un coglione che mi ha frantumato i coglioni a decantare la capacità di calcolo, come se solo la sua scheda video potesse fare i calcoli necessari... calcoli matematici normalissimi.
Tutto questo mentre passava al lato oscuro ammettendo di non comprare un gioco per PC da un sacco di tempo...

john18
09-07-2010, 12:26
Siccome ci sono giochi in cui phySx è implementato di default su cpu,come mafia 2,bhè considerato che si potrebbero ottenere gli stessi effetti della controparte su gpu,un pò uno ci rimane così.:mbe:

Fermo restando che ancora non ho visto un titolo che sfrutta physx in cui la fisica serva effettivamente a qualcosa. Io vedo un bad company 2 che sfrutta l'havok,il quale è spettacolare!

E vedo anche un certo physx che per veder svolazzare quattro fogliettini e un telone,ha bisogno di una scheda video dedicata alla fisica.:doh:

Jon Irenicus
09-07-2010, 12:46
Effettivamente finchè la fisica sarà usata solo per effetti visivi e non per i gameplay, il physx se lo possono tenere, ma alla grande. Se poi servirà anche per il gameplay non sarebbe male avere qualcosa gestito dalla cpu...

cronos1990
09-07-2010, 13:11
Il fatto è che se utilizzato solo per gli effetti visivi, dubito fortemente che sia "veramente" usato.

La "fisica" in un gioco ha bisogno di un supporto esterno di istruzioni API solo quando entra nel campo del gameplay. Se vedo svolazzare una bandiera in cima ad un palazzo ed al cambiare del vento cambia direzione, è più probabile che quelle siano delle semplici animazioni preimpostate con un paio di script per passare ad un'altra animazione quando cambia il vento, piuttosto che un'implementazione della fisica in gioco. Dubito che in situazioni del genere i programmatori perdano tempo ad implementare la fisica nel motore grafico, se non marginalmente.

Qui però vado pià ad ipotesi che altro (e bisognerebbe guardare caso per caso).

Jon Irenicus
09-07-2010, 13:19
Si, certamente rendere parte integrante del gameplay la fisica sarebbe del lavoro in più per chi programma.
Imho visto che ci mettono budget altissimi un pensierino potrebbero farcelo però... Certo poi è molto più comodo usarlo come orpello grafico, il che dà 2 vantaggi:
1) è più semplice
2) se prevedessero di usare il physx obbligatoriamente per tali effetti taglierebbero fuori un bel po' di utenza... O magari appesantirebbero e potrebbero giocarci solo chi ha le cpu più potenti (qua la sparo, cmq non è che ci stiano attenti anche adesso ai requisiti). Che poi cmq sarebbe un problema maggiore se gli acquirenti se ne accorgessero prima di comprarlo (salvo farsi cattiva pubblicità).:asd:

Ziosilvio
09-07-2010, 16:44
Non è un thread per fanboy [...]

ma solo io ci vedo una palese contraddizione fin dall'apertura del topic?! :asd:
(che poi cita toms... cioè l'anti-informazione x eccellenza... :fiufiu: :ahahah: )


è curioso vedere come un articolo interessante sia stato stravolto per arrivare poi alla affermazione in toni di certezza che physx su cpu gira meglio che su scheda grafica...
da questo capisco come nessuno si sia preso la briga di leggere l'articolo originale.

fantastico. :sofico:
No, a noi sembra addirittura il contrario di un thread da fanboy.
Invece, sono i post polemici come questo qui sopra, a farci pensare se la definizione non sia più adatta a questi.
Questa è un'ammonizione.

appleroof
09-07-2010, 16:51
Da un punto di vista prettamente etico non posso che deplorare la scelta di nVidia (nonostante abbia una scheda nVidia), ma guardando la cosa dal punto di vista commerciale... ci sta tutta.
Partendo dal presupposto che nVidia non fa beneficienza e che ha speso dei bei soldoni per acquistare la tecnologia PhysX, sarebbe come lamentarsi perchè la tecnologia fichissima "X" della marca automobilistica "Y" non viene applicata su tutte le auto del pianeta, che tecnicamente potrebbero supportarla.
Alla fine è una questione di soldi e business (come sempre): nVidia ha fatto un investimento e vuole realizzare, gli utenti si adeguando di conseguenza... ed il mercato pure.
Anzi, da un punto di vista prettamente commerciale... nVidia sarebbe stupida a non fare quello che fa: ha un cavallo potenzialmente vincente come PhysX... ed è giusto che lo sfrutti.
Io non ho comprato una scheda nVidia perchè supporta bene PhysX (l'ho comprata anche per quello, ma in minima parte): se c'è qualcuno disposto a spendere soldoni per tutto questo... farà il gioco nVidia, altrimenti giocheremo anche senza PhysX e non moriremo di certo...

Bon, allora fai a meno di comprare schede nVidia e Mafia 2: se ritieni che ti abbiano preso in giro... l'unica arma che hai a disposizione è quella di boicottarli.

non posso che quotare in pieno, non fà una grinza.

Ziosilvio
09-07-2010, 17:10
poichè non è normale che physX su cpu venga limitato per convincere gli utonti che su gpu è un altro mondo quando la realtà è ben diversa.
Vuoi dire che gli acquirenti di Nvidia sono utonti, o vuoi dire che Nvidia sta cercando di aggiungere gli utonti alla lista dei suoi acquirenti?

Ziosilvio
09-07-2010, 17:12
E conosco un coglione che mi ha frantumato i coglioni a decantare la capacità di calcolo, come se solo la sua scheda video potesse fare i calcoli necessari... calcoli matematici normalissimi.
Puoi senz'altro esprimere gli stessi concetti in termini meno anatomici.

DVD2005
09-07-2010, 17:24
Vuoi dire che gli acquirenti di Nvidia sono utonti, o vuoi dire che Nvidia sta cercando di aggiungere gli utonti alla lista dei suoi acquirenti?

ma accendi flame anche tu che sei mod ? :stordita:

john18
09-07-2010, 17:39
Vuoi dire che gli acquirenti di Nvidia sono utonti, o vuoi dire che Nvidia sta cercando di aggiungere gli utonti alla lista dei suoi acquirenti?



Intendo l'utente medio che non conosce un tubo di computer e si basa sul sentito dire. E siccome nvidia è la marca più in voga da parecchi anni,scelgono proprio quella!:)

john18
09-07-2010, 17:40
ma accendi flame anche tu che sei mod ? :stordita:

:asd:

Ziosilvio
09-07-2010, 17:59
ma accendi flame anche tu che sei mod ? :stordita:
Al contrario, sto cercando di capire cosa sia un flame e cosa non lo sia.

Ziosilvio
09-07-2010, 18:00
Intendo l'utente medio che non conosce un tubo di computer e si basa sul sentito dire. E siccome nvidia è la marca più in voga da parecchi anni,scelgono proprio quella!:)
Sembra però che il termine "utonto" risulti molto sgradevole a più di un utente di questo forum. E non a torto.
Io smetterò di usarlo.
Mi aspetto che tutti noi facciamo lo stesso.

john18
09-07-2010, 18:38
Sembra però che il termine "utonto" risulti molto sgradevole a più di un utente di questo forum. E non a torto.
Io smetterò di usarlo.
Mi aspetto che tutti noi facciamo lo stesso.


Senza polemica alcuna,se ci fosse nel regolamento una lista di parole da evitare,forse scatterebbero meno sospensioni e meno utenti si irriterebbero.:)


Detto questo pronta la risposta di nvidia...

http://www.thinq.co.uk/2010/7/8/nvidia-were-not-hobbling-cpu-physx/

Dicono che non erano a conoscenza di questo "problema" e che attiveranno il tutto di default.:)

appleroof
09-07-2010, 19:28
Senza polemica alcuna,se ci fosse nel regolamento una lista di parole da evitare,forse scatterebbero meno sospensioni e meno utenti si irriterebbero.:)


Detto questo pronta la risposta di nvidia...

http://www.thinq.co.uk/2010/7/8/nvidia-were-not-hobbling-cpu-physx/

Dicono che non erano a conoscenza di questo "problema" e che attiveranno il tutto di default.:)

come dicevo di là, tanto rumore per nulla; e sopratutto ora (mesi) che physx su cpu andrà da 5 a 10 fps tutti felici e contenti :)



p.s.: in effetti la lista delle parole da non usare, sopratutto se riferite ad una categoria ben specifica di utenti, è già nell'educazione e nel buon senso che mediamente si trovano in noi ;) (tra l'altro nessuno da piccolo poi mi ha detto "....non si dicono questi termini anatomici, birbantello!")

john18
09-07-2010, 19:36
come dicevo di là, tanto rumore per nulla; e sopratutto ora (mesi) che physx su cpu andrà da 5 a 10 fps tutti felici e contenti :)



p.s.: in effetti la lista delle parole da non usare, sopratutto se riferite ad una categoria ben specifica di utenti, è già nell'educazione e nel buon senso che mediamente si trovano in noi ;)



Non credo se verrà esteso il supporto al multicore per come dovrebbe essere. Anche se nell'articolo viene detto che si stima che il solo usufruire dell'SSE fornisce un boost prestazionale di due-tre volte superiore rispetto ad ora. Ergo,perchè vi siete fissati con sto passaggio da 5 a 10,io non lo sò!:O


ps sai com'è utonto viene usato nel thread da parecchi anni e mi sorprende che oggi ci si accorga sia fastidioso. Poi è chiaro che siamo un forum e l'educazione poco si vede,cioè non è che sei di fronte alla persona e comprendi il tono con cui viene detta quella parola.

ally
14-07-2010, 16:42
...nvidia ammette di non aver ottimizzato physix (http://www.tomshw.it/cont/news/physx-non-e-ottimizzato-ben-2-anni-per-ammetterlo/26257/1.html) da ben due anni...

...ciao Andrea...

john18
14-07-2010, 16:59
...nvidia ammette di non aver ottimizzato physix (http://www.tomshw.it/cont/news/physx-non-e-ottimizzato-ben-2-anni-per-ammetterlo/26257/1.html) da ben due anni...

...ciao Andrea...



Non può fare altrimenti,poichè rischierebbe di perdere utenza...Comunque meglio così,più vengono mostrate pubblicamente certe politiche "strane" più possibilità si hanno di cambiare certe cose. Come in questo caso!:)

blade9722
14-07-2010, 17:02
Non è un thread per fanboy quindi si richiede la massima obiettività in base alla news.
Evitate anche di creare flame inutili ma limitatevi a commentare quanto vi posto.:)


La notizia la potete trovare qui

http://www.tomshw.it/cont/news/physx-a-marce-ridotte-con-la-cpu-nvidia-bara/26145/1.html


Personalmente ritengo ci troviamo di fronte all'ennesima caduta di stile nvidia,poichè non è normale che physX su cpu venga limitato per convincere gli utonti che su gpu è un altro mondo quando la realtà è ben diversa.

C'è già aperto un thread nella sezione News.

P.S. non sarà un thread partigiano, ma l'ultima frase è decisamente da fanboy

john18
14-07-2010, 17:09
C'è già aperto un thread nella sezione News.

P.S. non sarà un thread partigiano, ma l'ultima frase è decisamente da fanboy



E allora?

Ziosilvio è gia passato di qua come puoi vedere e non ha ritenuto si dovesse chiudere niente.

Poi dovresti spiegarmi dove sia questa frase da fanboy...:stordita:

egounix
14-07-2010, 18:59
C'è già aperto un thread nella sezione News.

P.S. non sarà un thread partigiano, ma l'ultima frase è decisamente da fanboy

il contenuto del discorso di jhon esprime tutt'altra cosa sebbene i toni possano determinare a pensare altro

e per citarti "l'ultima frase sarà decisamente da fanboy, ma il tuo commento è decisamente non-utile alla discussione"
con questo dico, almeno di esprimere qualcosa, provare a confutare o non so cosa...

riguardo a sta storia di physx
diciamo che potenzialmente, ma non provato, physx potrbbe essere migliore se utilizzato in multicore con sse
a prescindere da questo però l'affermazione di jhon a proposito degli utonti, sebbene l'uso del termine "utonti" è infelice, fa pensare ad un fatto... ai requisiti di mafia 2...

addirittura una 285 per la fisica, quando, personalmente, una gts250 - consigliata sul thread di physx - mi pare già eccessiva, almeno ad oggi dove con physx si sono visti ben pochi effetti e di ben poco impatto, tali da non giustificare la spesa di almeno 80-100€ di scheda a parta - parlo da nuovo, perchè il mercato dell'usato non è conosciuto dalla generalità degli utenti.

john18
14-07-2010, 19:10
il contenuto del discorso di jhon esprime tutt'altra cosa sebbene i toni possano determinare a pensare altro

e per citarti "l'ultima frase sarà decisamente da fanboy, ma il tuo commento è decisamente non-utile alla discussione"
con questo dico, almeno di esprimere qualcosa, provare a confutare o non so cosa...

riguardo a sta storia di physx
diciamo che potenzialmente, ma non provato, physx potrbbe essere migliore se utilizzato in multicore con sse
a prescindere da questo però l'affermazione di jhon a proposito degli utonti, sebbene l'uso del termine "utonti" è infelice, fa pensare ad un fatto... ai requisiti di mafia 2...

addirittura una 285 per la fisica, quando, personalmente, una gts250 - consigliata sul thread di physx - mi pare già eccessiva, almeno ad oggi dove con physx si sono visti ben pochi effetti e di ben poco impatto, tali da non giustificare la spesa di almeno 80-100€ di scheda a parta - parlo da nuovo, perchè il mercato dell'usato non è conosciuto dalla generalità degli utenti.



Il punto è capire in che parte risulti il "fanboy"...Forse perchè parlavo di utonti? Termine che utilizziamo tutti qui dentro per definire una persona che di informatica capisce poco o nulla. Oltretutto ho gia spiegato quando è intervenuto il moderatore,motivo per cui il suo post era fuoriluogo anche da quel punto di vista.

Comunque ritornando alla questione,è evidente che messi alle strette,hanno dovuto sputare il risposto quindi dovrebbero risolvere il problema. Sull'utilità di physX bhè essendo di proprietà esclusiva nvidia,al contrario per esempio di un havok che può usare chiunque,difficilmente vedremo qualcosa di diverso da fogliettini che svolazzano.;)

Fantomatico
14-07-2010, 20:41
Direi che possiamo arrivare tranquillamente alla conclusione che:

il titolo del thread verrà modificato, non ci sarà più il punto di domanda :D

:asd:


;)

wolverine
14-07-2010, 22:51
Ah beh, nvidia non è nuova a "trovate" esclusive, sarà il sole della California.. :D :fagiano: