|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwupgrade.it/news/skvideo...oud_42163.html
NVIDIA presenta una nuova tecnologia, con un mix di componente hardware e software, grazie alla quale si vuole fornire un'esperienza di gioco on the cloud con qualsiasi dispositivo che giunga a qualità come quella di una console Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Sep 2001
Città: Saronno (VA)
Messaggi: 21756
|
L'iea è ottima, non discuto.
Ma non si può non considerare il fatto che ogni "colore" sulla barra del grafico è uguale ad una VARIABILE cge influisce sur risultato finale. In particolare non posso che preoccuparmi guardando quella del "NETWORK". |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Jan 2005
Città: ichnusa
Messaggi: 17830
|
con l'infrastruttura di rete che abbiamo nel nostro paese possiamo giocare a supermario con grid...
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14734
|
@demon77
In effetti non è molto chiaro come Nvidia pensi di "più che dimezzare" la latenza della rete con la sua infrastruttura. |
![]() |
![]() |
![]() |
#5 |
Member
Iscritto dal: Jun 2009
Messaggi: 239
|
@calabar
Nvidia non può dimezzare la latenza della rete senza intervenire potenziandola. Mi chiedo anche come abbia fatto a dimezzare arbitrariamente il valore di game pipeline. Per me questa soluzione può aiutare solo nel tempo di codifica del flusso video. Le altre variabili dipendono da fattori che questa soluzione in nessun modo, a parità di hardware e infrastruttura telematica, possono essere migliorati. Quindi per me quel grafico a barre è impreciso e fuorviante! |
![]() |
![]() |
![]() |
#6 | |
Senior Member
Iscritto dal: Jan 2003
Città: Atlantide (AT)
Messaggi: 2506
|
Quote:
mmmmm.... Altra ondata di tv nuovi , prima hd - led - 3d e adesso low latency.. |
|
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Jul 2007
Città: Jesi
Messaggi: 1784
|
Mi sembra abbastanza evidente che il grafico non è altro che una questione di marketing..
Game pipeline immagino rappresenti il tempo necessario per i calcoli di fisica, IA, script vari, rendering e via dicendo che sono necessari per realizzare un frame e ovviamente aumentando la potenza di calcolo questo diminuisce (il fatto che l'abbiano dimezzato potrebbe semplicemente indicare che la nuova architettura è più veloce del doppio rispetto a quella vecchia). Se così non fosse non capisco a cosa si riferisce perché dubito che sia il tempo necessario per portare l'input dell'utente ad avere un effetto nel gioco. I processi di Encode/Decode anche quì dipendono dalla macchina (cpu/gpu a seconda, in questo caso gpu apparentemente, ma lato server per l'encode e lato client per il decode) e quindi per carità.. anche questi sono dimezzabili... Ma la fase network è ridicola.. posso anche credere che la latenza media negli ultimi due anni si sia dimezzata (magari in america), ma di certo non è merito di nvidia... che poi pure li... io con una buona ADSL ho ping nell'ordine dei 20ms verso i server NGI, ma questo con un carico minimo.. all'aumentare della dimensione dei pacchetti sale tranquillamente a 40-50ms. Vorrei poi aggiungere due cose: La prima è che se si fanno i conti 66ms equivalgono ad 15 frame al secondo, 166 a 6fps... e per quanto scrause siano le console lavorano fra i 30 e i 60fps, quindi direi che c'è decisamente qualcosa che non va (almeno se si considera che quei calcoli sono necessari per fare un frame, non saprei.. magari indicano la latenza fra l'invio dei comandi e l'elaborazione, ma stiamo parlando di 1/6 di secondo e sinceramente mi sembra troppo considerando che non l'ho mai notato) La seconda è che i signori dell'nVidia sembrano non aver tenuto conto di un piccolo particolare: la pipeline mostrata va bene per il "ritorno" all'utente, ma questo deve in primo luogo trasmettere i comandi al server.. una pipeline più corretta sarebbe qualcosa del genere <Invio comando> <elaborazione frame in base anche ai comandi dati> <codifica> <invio frame> <decodifica> Daccordo che non ci deve essere sincronia fra le due cose (ergo: posso mandare un comando e ricevere subito dopo un frame che ancora non ne ha tenuto conto) ma comunque resta il fatto che solo di fase di networking si avranno ritardi doppi rispetto a quelli indicati per la reazione ai comandi
__________________
Notebook:||Santech N87|CPU: Intel Core i7 4700mq@3.6ghz|RAM: Kingston 2x8gb DDR3L 1600mhz|HD: Plextor M5M 256gb+2x500gb mechanical drives|VGA: Radeon HD8970m 4gb|| Desktop:||Mobo: Asrock Z77 Extreme4|CPU: Intel Core i5 2500k@4.7ghz|CPU Cooler: Noctua NH-D14|RAM: Corsair 2x8gb DDR3 1333mhz||HD: Crucial RealSSD M4 128gb|VGA: Crossfire Radeon HD7850@1150/1325mhz|PS: XFX Pro Series 750w|Case: Corsair Carbide 300R|| Ultima modifica di Kino87 : 16-05-2012 alle 12:44. |
![]() |
![]() |
![]() |
#8 |
Member
Iscritto dal: Feb 2010
Messaggi: 223
|
mah io non vedo grosse problematiche e nemmeno dati cosi fuorvianti, essendo dati di presentazione e basta. Per quanto riguarda la latenza, non è che 66ms equivalgano a 15 frame, attenzione, esempio; mettiamo caso che io sia in un camion con doppio rimorchio e vada ai 60km/h, io raggiungerò un posto a 60km di distanza dopo un ora, inizialmente con la cabina e poi primo rimorchio e secondo rimorchio, ma non è che il primo rimorchio arriva un ora dopo e il secondo dopo un'altra ora, arrivano subito dopo.
166ms mi sembrano corretti perchè si sta parlando di latenza e quindi ha senso paragonarla ai riflessi umani che sono circa 200ms qualcosa. Poi sulla bontà dei network qui è un'altra cosa ma nvidia non vende solo in italia. |
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Aug 2008
Messaggi: 627
|
Quindi, in base alle stime di Nvidia, un gioco in streaming renderizzato da loro avrebbe meno latenza di uno giocato direttamente da una console.
Sento puzza di marketing. |
![]() |
![]() |
![]() |
#10 |
Senior Member
Iscritto dal: Jan 2005
Città: (RA)
Messaggi: 3789
|
Sarei curioso di sapere se in un server gaming le gpu vengono virtualizzate, oppure se un'utente=una gpu totalmente occupata
EDIT: ho visto adesso l'altro articolo Ultima modifica di Nenco : 16-05-2012 alle 15:04. |
![]() |
![]() |
![]() |
#11 |
Bannato
Iscritto dal: Nov 2010
Messaggi: 175
|
ma le 590 e le 690 a quanto sapete voi si possono trasformare in schede Tesla.
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 02:01.