PDA

View Full Version : GeForce GRID: l'approccio NVIDIA al gaming con the cloud


Redazione di Hardware Upg
16-05-2012, 11:21
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-grid-l-approccio-nvidia-al-gaming-con-the-cloud_42163.html

NVIDIA presenta una nuova tecnologia, con un mix di componente hardware e software, grazie alla quale si vuole fornire un'esperienza di gioco on the cloud con qualsiasi dispositivo che giunga a qualità come quella di una console

Click sul link per visualizzare la notizia.

demon77
16-05-2012, 11:34
L'iea è ottima, non discuto.
Ma non si può non considerare il fatto che ogni "colore" sulla barra del grafico è uguale ad una VARIABILE cge influisce sur risultato finale.

In particolare non posso che preoccuparmi guardando quella del "NETWORK".

unnilennium
16-05-2012, 11:35
con l'infrastruttura di rete che abbiamo nel nostro paese possiamo giocare a supermario con grid...

calabar
16-05-2012, 11:44
@demon77
In effetti non è molto chiaro come Nvidia pensi di "più che dimezzare" la latenza della rete con la sua infrastruttura.

idkfa
16-05-2012, 11:59
@calabar
Nvidia non può dimezzare la latenza della rete senza intervenire potenziandola.

Mi chiedo anche come abbia fatto a dimezzare arbitrariamente il valore di game pipeline.

Per me questa soluzione può aiutare solo nel tempo di codifica del flusso video. Le altre variabili dipendono da fattori che questa soluzione in nessun modo, a parità di hardware e infrastruttura telematica, possono essere migliorati.

Quindi per me quel grafico a barre è impreciso e fuorviante!

nonikname
16-05-2012, 12:30
Nvidia non può dimezzare la latenza della rete senza intervenire potenziandola.

Mi chiedo anche come abbia fatto a dimezzare arbitrariamente il valore di game pipeline.

Per me questa soluzione può aiutare solo nel tempo di codifica del flusso video. Le altre variabili dipendono da fattori che questa soluzione in nessun modo, a parità di hardware e infrastruttura telematica, possono essere migliorati.

Quindi per me quel grafico a barre è impreciso e fuorviante!

Plus, new Smart TV makers are working with NVIDIA to reduce the input lag time on their Ethernet ports compared to the amount of buffering that usually exists on the HDMI input port to most consumer TVs

mmmmm.... Altra ondata di tv nuovi , prima hd - led - 3d e adesso low latency..

Kino87
16-05-2012, 12:37
Mi sembra abbastanza evidente che il grafico non è altro che una questione di marketing..
Game pipeline immagino rappresenti il tempo necessario per i calcoli di fisica, IA, script vari, rendering e via dicendo che sono necessari per realizzare un frame e ovviamente aumentando la potenza di calcolo questo diminuisce (il fatto che l'abbiano dimezzato potrebbe semplicemente indicare che la nuova architettura è più veloce del doppio rispetto a quella vecchia). Se così non fosse non capisco a cosa si riferisce perché dubito che sia il tempo necessario per portare l'input dell'utente ad avere un effetto nel gioco.
I processi di Encode/Decode anche quì dipendono dalla macchina (cpu/gpu a seconda, in questo caso gpu apparentemente, ma lato server per l'encode e lato client per il decode) e quindi per carità.. anche questi sono dimezzabili...

Ma la fase network è ridicola.. posso anche credere che la latenza media negli ultimi due anni si sia dimezzata (magari in america), ma di certo non è merito di nvidia... che poi pure li... io con una buona ADSL ho ping nell'ordine dei 20ms verso i server NGI, ma questo con un carico minimo.. all'aumentare della dimensione dei pacchetti sale tranquillamente a 40-50ms.

Vorrei poi aggiungere due cose:
La prima è che se si fanno i conti 66ms equivalgono ad 15 frame al secondo, 166 a 6fps... e per quanto scrause siano le console lavorano fra i 30 e i 60fps, quindi direi che c'è decisamente qualcosa che non va (almeno se si considera che quei calcoli sono necessari per fare un frame, non saprei.. magari indicano la latenza fra l'invio dei comandi e l'elaborazione, ma stiamo parlando di 1/6 di secondo e sinceramente mi sembra troppo considerando che non l'ho mai notato)

La seconda è che i signori dell'nVidia sembrano non aver tenuto conto di un piccolo particolare: la pipeline mostrata va bene per il "ritorno" all'utente, ma questo deve in primo luogo trasmettere i comandi al server.. una pipeline più corretta sarebbe qualcosa del genere
<Invio comando>
<elaborazione frame in base anche ai comandi dati>
<codifica>
<invio frame>
<decodifica>

Daccordo che non ci deve essere sincronia fra le due cose (ergo: posso mandare un comando e ricevere subito dopo un frame che ancora non ne ha tenuto conto) ma comunque resta il fatto che solo di fase di networking si avranno ritardi doppi rispetto a quelli indicati per la reazione ai comandi

Sfasciacarene
16-05-2012, 13:05
mah io non vedo grosse problematiche e nemmeno dati cosi fuorvianti, essendo dati di presentazione e basta. Per quanto riguarda la latenza, non è che 66ms equivalgano a 15 frame, attenzione, esempio; mettiamo caso che io sia in un camion con doppio rimorchio e vada ai 60km/h, io raggiungerò un posto a 60km di distanza dopo un ora, inizialmente con la cabina e poi primo rimorchio e secondo rimorchio, ma non è che il primo rimorchio arriva un ora dopo e il secondo dopo un'altra ora, arrivano subito dopo.
166ms mi sembrano corretti perchè si sta parlando di latenza e quindi ha senso paragonarla ai riflessi umani che sono circa 200ms qualcosa.
Poi sulla bontà dei network qui è un'altra cosa ma nvidia non vende solo in italia.

rb1205
16-05-2012, 13:20
Quindi, in base alle stime di Nvidia, un gioco in streaming renderizzato da loro avrebbe meno latenza di uno giocato direttamente da una console.
Sento puzza di marketing.

Nenco
16-05-2012, 14:58
Sarei curioso di sapere se in un server gaming le gpu vengono virtualizzate, oppure se un'utente=una gpu totalmente occupata

EDIT: ho visto adesso l'altro articolo

Clasys555
17-05-2012, 09:14
ma le 590 e le 690 a quanto sapete voi si possono trasformare in schede Tesla.