Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum
OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum
Abbiamo partecipato all'OVHcloud Summit 2025, conferenza annuale in cui l'azienda francese presenta le sue ultime novità. Abbiamo parlato di cloud pubblico e privato, d'intelligenza artificiale, di computer quantistici e di sovranità. Che forse, però, dovremmo chiamare solo "sicurezza"
Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI Care e DisplayPort 2.1a
Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI Care e DisplayPort 2.1a
Abbiamo potuto mettere le mani in anteprima sul nuovo monitor MSI dedicato ai giocatori: un mostro che adotta un pannello QD-OLED da 26,5 pollici con risoluzione 2560 x 1440 pixel, frequenza di aggiornamento fino a 500 Hz e tempo di risposta di 0,03 ms GtG
DJI Neo 2 in prova: il drone da 160 grammi guadagna il gimbal e molto altro
DJI Neo 2 in prova: il drone da 160 grammi guadagna il gimbal e molto altro
DJI aggiorna la sua linea di droni ultraleggeri con Neo 2, un quadricottero da 160 grammi che mantiene la compattezza del predecessore ma introduce una stabilizzazione meccanica a due assi, sensori omnidirezionali e un sistema LiDAR
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 07-08-2008, 17:30   #121
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
Infatti lo saranno in misura minima...

I vantaggi saranno SOLO con filtraggio attivo
non esattamente; con filtraggio attivo ci sarà circa un 25% di vantaggio in caso di MSAA box filter dovuto all'utilizzo di MRT. Ci saranno altresì vantaggi derivanti dall'utilizzo di algoritmi di AA con resolve via shader; in questo caso il vantaggio sarà di natura diversa: mentre con il MSAA box filter il 25% si avrà in più rispetto alle attuali prestazioni di rv670 e rv770, con AA di tipo custom si avrà di fatto un calo di prestazioni sia per ATi che per nVIDIA, più marcato per la seconda però in misura dipendente dal tipo di algoritmo utilizzato.
Altri miglioramenti prstazionali si avranno in ambiti differenti; ad esempio una miglior gestione della global illumination grazie all'adozione di cube map array (questo porterà anche a vantaggi di tipo qualitativo); un aumento del numero di vertex shader in input e in output (si passerà da 16 a 32 valori a 128 per shader); possibilità di utilizzare blocchi di 2x2 texture al posto di una singola texture con vantaggi qualitativi (nella gestione delle ombre e possibilità di implementare ordini di filtraggio superiori al primo) e velocistici (maggior velocità nel calcolo del procedural noise e incrementi nelle operazioin di stream computing); nuova istruzione per il LoD (possibilità di fare texture filtering di tipo custom con algoritmi di ordine superiore al primo e risultati migliori dal punot di vista qualitativo e maggior velocità nel parallax occlusion mapping). Multi sample buffer read and write e pixel coverage mask (in pratica, il primo permette l'utilizzo di più render target direttamente accessibili dallo shader core e il secondo abilita l'utilizzo di AA di tipo custom); i risultati sono molteplici (da una miglior gestione dell'AA con HDR, alla velocizzazione delle operazioni con adaptive AA, ad una miglior gestione di forme di edge antialiasing di tipo custom con ottimizzazione della banda passante, ad una maggior qualità in alcuni effetti di post processing)

Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
(il miglioramento qualitativo pressoche' nullo) e per quello che si sa oggi nell'ordine del 20% su tutti i sistemi dotati di Vista e SP1 + schede AMD (cioè la minoranza) il tutto con giochi che non vedremo prima di 1-2 anni...mentre di tessellation probabilmente ne riparleremo con dx11
miglioramenti qualitativi, oltre a quelli elencati sopra (che già di per sé sono non di poco conto e verranno implementati anche nelle dx11), si avranno anche in virtù del fatto che: sarà richiesto l'utilizzo di fp32 per le operazioni di filtraggio, il blending a INT16 non sarà più opzionale ma obbligatorio, si adptterà il MSAA 4x sia per il formato a 32 che per quello a 64 bit, aumenta la precisione nelle operazioni in fp.

Complessivamente, si va ben oltre, dal putno di vista prestazionale, rispetto al 24% circa riscontrato con il solo utilizzo di MSAA 4x box filter.
Per quanto riguarda la tessellation è scontato che ormai sarà inserita nelle dx11; ma di carne al fuoco ce n'è abbastanza anche con lew 10.1
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi

Nessuno mette in dubbio le possibilità di sviluppo sulla carta, ma il fatto è semplicemente che arriveranno troppo tardi, in pochi titoli, quando avremo schede diverse da quelle di oggi e avremo altri problemi; bel vantaggio...

già oggi basta implementare l'utilizzo di MRT per MSAA box filter (e si può fare anche su engine DX9 come l'UE3). Che poi arrivino quando ci saranno già altre vga, magari dx10.1 o, addirittura, dx11, non inficia il fatto che le attuali gpu dx10.1 godranno di benefici, prestazionali e qualitativi, che le attuali gpu dx10 non avranno

Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi

ed anche in questo caso le console faranno da freno...
probabile, però, ripeto, su engone DX9 o misti dx8/dx9 di tipo deferred rendering (stalker e i titoli basati su UE3, ad esempio) è giù implementabile il MRT per color e z-ops; basta quello a fare la differenza

Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi

comunque il bello del forum è che fra un paio d'anni potremo tornare a guardare la discussione e vedere chi ci ha azzeccato di piu' sia sulla storia di Larrabee che della sorte di AMD e Nvidia...

PS: scommetiamo che avremo ancora la nostra bella GPU discreta ed il nostro processore, altro che GPGPUGPCPUCPGPUPC...
tra un paio di anni è ancora presto perchè avvengano sconvolgimenti; sicuramente qualcosa si sta muovendo e lo farà sempre più velocemente.
In quanto a noi e alla nostra presenza sul forum, un paio di anni è un tempo piuttosto lungo per fare previsioni
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 18:55   #122
Defragg
Senior Member
 
L'Avatar di Defragg
 
Iscritto dal: Mar 2006
Messaggi: 8605
Quote:
Originariamente inviato da appleroof Guarda i messaggi
questo post mi sembra inequivocabile

cmq l'hw di una consolle non si ferma al chip grafico, che gioca ovviamente un ruolo chiave perchè deputata (per ora) essenzialmente a far videogiocare

in ogni caso, anche se avessimo avuto solo la xbox 360, il ritardo che c'è per quanto riguarda i giochi "full dx10" sarebbe stato uguale: non ha hw dx10, per cui siamo sempre lì, fermo restando che se setti un gioco per farlo andare sulla consolle meno potente (ps3, nel tuo discorso, ma non sono d'accordo ) nulla toglie che nelle versioni di quel motore per le altre piattaforme (xbox, pc) esso possa essere settato al massimo delle sue potenzialità,

il problema del ritardo è che sia xbox che ps3, a pari "merito" , hanno hw dx9.
Alt io mica ho detto che PS3 è la meno potente, ho detto che è quella che ha meno feature, e che quindi nel caso dei titoli multipiatta, è quella che frena di più l'uso di effetti migliori.
R500 è essenzialmente una GPU DX9, ma che presenta caratteristiche esclusive delle DX10 e altre che le superano.
Molto più avanzata di un G71 castrato che non può nemmeno fare AA con HDR (infatti mi sembra si usino artifici vari per ottenere un risultato simile, facendo partecipare anche il Cell mi pare).
che poi la potenza finale sia simile, è tutt'altra cosa.
__________________
Steam Deck OLED 2 TB | Ryzen 7 7700 — 2x16GB Corsair Dominator Platinum 6400 MHz — PowerColor Hellhound RX 7700 XT
Trattative OK: 1mp3r4t0r, armenico11, Babumba92, CoolBits, Drigerott, gino1221, k.o.z, Macco, Mastermarcox, Mone_82, stacker, Velvet, Vladimiro Bentovich, frupoli, Sheva77, deg626, HcK190, Godmar, Simonxp, LCol84, pp2k, xeno the holy, SamuTnT, fantacaz
Defragg è offline   Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 19:10   #123
Mister Tarpone
 
Messaggi: n/a
vabbè...
cmq a me sembra che anche la ps3 con quel G71 castrato riesca a fare dei giochi graficamente spettacolari e pieni zeppi di effetti...

vedi metal gear solid 4, Raket and Clank, uncharted, Killzone 2 ecc...


peccato che non sono molti i giochi che la spremono come si deve...
...se sviluppassero + titoli appositamente per l'hw ps3 invece di fare sempre conversioni da xbox360 forse sarebbe meglio.
  Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 19:23   #124
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Quote:
Originariamente inviato da yossarian Guarda i messaggi
non esattamente; con filtraggio attivo ci sarà circa un 25% di vantaggio in caso di MSAA box filter dovuto all'utilizzo di MRT. Ci saranno altresì vantaggi derivanti dall'utilizzo di algoritmi di AA con resolve via shader; in questo caso il vantaggio sarà di natura diversa: mentre con il MSAA box filter il 25% si avrà in più rispetto alle attuali prestazioni di rv670 e rv770, con AA di tipo custom si avrà di fatto un calo di prestazioni sia per ATi che per nVIDIA, più marcato per la seconda però in misura dipendente dal tipo di algoritmo utilizzato.
Altri miglioramenti prstazionali si avranno in ambiti differenti; ad esempio una miglior gestione della global illumination grazie all'adozione di cube map array (questo porterà anche a vantaggi di tipo qualitativo); un aumento del numero di vertex shader in input e in output (si passerà da 16 a 32 valori a 128 per shader); possibilità di utilizzare blocchi di 2x2 texture al posto di una singola texture con vantaggi qualitativi (nella gestione delle ombre e possibilità di implementare ordini di filtraggio superiori al primo) e velocistici (maggior velocità nel calcolo del procedural noise e incrementi nelle operazioin di stream computing); nuova istruzione per il LoD (possibilità di fare texture filtering di tipo custom con algoritmi di ordine superiore al primo e risultati migliori dal punot di vista qualitativo e maggior velocità nel parallax occlusion mapping). Multi sample buffer read and write e pixel coverage mask (in pratica, il primo permette l'utilizzo di più render target direttamente accessibili dallo shader core e il secondo abilita l'utilizzo di AA di tipo custom); i risultati sono molteplici (da una miglior gestione dell'AA con HDR, alla velocizzazione delle operazioni con adaptive AA, ad una miglior gestione di forme di edge antialiasing di tipo custom con ottimizzazione della banda passante, ad una maggior qualità in alcuni effetti di post processing)



miglioramenti qualitativi, oltre a quelli elencati sopra (che già di per sé sono non di poco conto e verranno implementati anche nelle dx11), si avranno anche in virtù del fatto che: sarà richiesto l'utilizzo di fp32 per le operazioni di filtraggio, il blending a INT16 non sarà più opzionale ma obbligatorio, si adptterà il MSAA 4x sia per il formato a 32 che per quello a 64 bit, aumenta la precisione nelle operazioni in fp.

Complessivamente, si va ben oltre, dal putno di vista prestazionale, rispetto al 24% circa riscontrato con il solo utilizzo di MSAA 4x box filter.
Per quanto riguarda la tessellation è scontato che ormai sarà inserita nelle dx11; ma di carne al fuoco ce n'è abbastanza anche con lew 10.1



già oggi basta implementare l'utilizzo di MRT per MSAA box filter (e si può fare anche su engine DX9 come l'UE3). Che poi arrivino quando ci saranno già altre vga, magari dx10.1 o, addirittura, dx11, non inficia il fatto che le attuali gpu dx10.1 godranno di benefici, prestazionali e qualitativi, che le attuali gpu dx10 non avranno



probabile, però, ripeto, su engone DX9 o misti dx8/dx9 di tipo deferred rendering (stalker e i titoli basati su UE3, ad esempio) è giù implementabile il MRT per color e z-ops; basta quello a fare la differenza



tra un paio di anni è ancora presto perchè avvengano sconvolgimenti; sicuramente qualcosa si sta muovendo e lo farà sempre più velocemente.
In quanto a noi e alla nostra presenza sul forum, un paio di anni è un tempo piuttosto lungo per fare previsioni
Come ho gia' detto non si discute sulle potenzialità, ma il fatto è che secondo me tutte queste belle feauteres [escluso forse l'AA via shader] rimarranno sulla carta (non prima delle dx11 o di una eventuale risposta di nvidia e dell'uscita di windows 7) e poi fra 1-2 anni vedremo chi avra' avuto ragione, potrei anche sbagliarmi ma questa è la sensazione che ho ora e al momento non vedo giri di boa all'orizzonte

Non concordo, e niente puo' farmi cambiare idea ora [ma ovviamente capisco e in parte condivido le tue speranze ], sul fatto che le dx10.1 rappresentino un chiaro vantaggio delle schede AMD su quelle nvidia (si valutano altri aspetti molto piu' importanti [prezzo/prestazioni/consumi] e non è certo per questo che AMD avra' successo e Nvidia andra' in rovina), tanto piu' che oggi tutte le schede video si possono scegliere e considerare in base alle sole prestazioni in dx9 [dato che nemmeno esistono giochi totalmente Dx10]

C'è un certo conservatorismo nel mondo dell'informatica con cui anche progetti ambiziosi come quelli di Intel con Larrabee dovranno fare i conti.


Da quando è uscita la notizia di Larrabee stavo anche riflettendo sugli scenari futuri possibili (piu' per gioco che per ambizioni divinatorie ) e a dire il vero credo che non sia possibile la strada dell'integrazione totale fra CPU e GPU nemmeno fra 10 anni dopotutto prima o poi la riduzione del processo produttivo porra' dei limiti fisici all'integrazione; quindi non so quanto valga la pena andare verso un'integrazione per poi tornare a lavorare con PC grossi come delle stanze (per componente ) ovviamente esagero pero' non credo che la strada di intel possa avere cosi' vita facile (sul lato GPU)...poi quando sara' uscito larrabee faremo meglio i conti anche perche' mi pare che ci sia ancora una fitta coltre di fumo un po' in tutte le direzioni...

Alla fine per ora abbiamo solo ambizioni, da una parte GPU che vorrebbero fare anche le CPU (ATI e Nvidia) dall'altra CPU che vorrebbero fare GPU (intel con Larrabee) risultati al momento pochi o nulli se escludiamo qualche tech demo scritta appositamente (vedere la fisica di nvidia) le cose potrebbero cambiare come anche no...

Potrebbe (quello che sta avvenendo) essere che ci sara' un' invasione di campo da parte di un po' tutti ma credo che alla fine le cose non cambieranno poi molto e che salvo imprevisti, che nessuno si augura, tutte e tre (4, se consideriamo ATI ancora entita' separata) queste aziende continuino a fare quello che fanno oggi.

Bon, la mia previsione l'ho fatta...sotto con le scomesse!!!
Kharonte85 è offline   Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 19:29   #125
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38298
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
Come ho gia' detto non si discute sulle potenzialità, ma il fatto è che secondo me tutte queste belle feauteres [escluso forse l'AA via shader] rimarranno sulla carta (non prima delle dx11 o di una eventuale risposta di nvidia e dell'uscita di windows 7) e poi fra 1-2 anni vedremo chi avra' avuto ragione, potrei anche sbagliarmi ma questa è la sensazione che ho ora e al momento non vedo giri di boa all'orizzonte

Non concordo, e niente puo' farmi cambiare idea ora [ma ovviamente capisco e in parte condivido le tue speranze ], sul fatto che le dx10.1 rappresentino un chiaro vantaggio delle schede AMD su quelle nvidia (si valutano altri aspetti molto piu' importanti [prezzo/prestazioni/consumi] e non è certo per questo che AMD avra' successo e Nvidia andra' in rovina), tanto piu' che oggi tutte le schede video si possono scegliere e considerare in base alle sole prestazioni in dx9 [dato che nemmeno esistono giochi totalmente Dx10]

C'è un certo conservatorismo nel mondo dell'informatica con cui anche progetti ambiziosi come quelli di Intel con Larrabee dovranno fare i conti.


Da quando è uscita la notizia di Larrabee stavo anche riflettendo sugli scenari futuri possibili (piu' per gioco che per ambizioni divinatorie ) e a dire il vero credo che non sia possibile la strada dell'integrazione totale fra CPU e GPU nemmeno fra 10 anni dopotutto prima o poi la riduzione del processo produttivo porra' dei limiti fisici all'integrazione; quindi non so quanto valga la pena andare verso un'integrazione per poi tornare a lavorare con PC grossi come delle stanze (per componente ) ovviamente esagero pero' non credo che la strada di intel possa avere cosi' vita facile (sul lato GPU)...poi quando sara' uscito larrabee faremo meglio i conti anche perche' mi pare che ci sia ancora una fitta coltre di fumo un po' in tutte le direzioni...

Alla fine per ora abbiamo solo ambizioni, da una parte GPU che vorrebbero fare anche le CPU (ATI e Nvidia) dall'altra CPU che vorrebbero fare GPU (intel con Larrabee) risultati al momento pochi o nulli se escludiamo qualche tech demo scritta appositamente (vedere la fisica di nvidia) le cose potrebbero cambiare come anche no...

Potrebbe (quello che sta avvenendo) essere che ci sara' un' invasione di campo da parte di un po' tutti ma credo che alla fine le cose non cambieranno poi molto e che salvo imprevisti, che nessuno si augura, tutte e tre (4, se consideriamo ATI ancora entita' separata) queste aziende continuino a fare quello che fanno oggi.

Bon, la mia previsione l'ho fatta...sotto con le scomesse!!!
io scommetto che ti sbagli

Quote:
Originariamente inviato da Mister Tarpone Guarda i messaggi
vabbè...
cmq a me sembra che anche la ps3 con quel G71 castrato riesca a fare dei giochi graficamente spettacolari e pieni zeppi di effetti...

vedi metal gear solid 4, Raket and Clank, uncharted, Killzone 2 ecc...


peccato che non sono molti i giochi che la spremono come si deve...
...se sviluppassero + titoli appositamente per l'hw ps3 invece di fare sempre conversioni da xbox360 forse sarebbe meglio.
esatto, era quello che intendevo dire, insieme al fatto che però, essendo g71 e r500 dx9, i motori grafici sono giocoforza dx9, ed essendo la maggior parte dei giochi sviluppati per consolle e poi per pc, di giochi dx10 se ci va bene li cominciamo a vedere quando escono le dx11 (se non addirittura le prox consolle dx11 )
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto

Ultima modifica di appleroof : 07-08-2008 alle 19:33.
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 19:37   #126
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Quote:
Originariamente inviato da Mister Tarpone Guarda i messaggi
peccato che non sono molti i giochi che la spremono come si deve...
...se sviluppassero + titoli appositamente per l'hw ps3 invece di fare sempre conversioni da xbox360 forse sarebbe meglio.
Non credo proprio, se si parla di grafica pura il chip Grafico dell' Xbox 360 è palesemente superiore, è decisamente un bene per noi PCisti se le conversioni avvengono da Xbox360...che poi i risultati siano altalenanti e che la resa finale anche su PS3 sia molto simile è un'altro discorso; entrambe le console rappresentano dei chiari limiti allo sviluppo della grafica videoludica su PC (anche perche' in pratica SONO dei PC che pero' non si aggiornano )

Quote:
Originariamente inviato da appleroof Guarda i messaggi
io scommetto che ti sbagli


Puo' essere (anzi con la fortuna che mi ritrovo perderei sicuro ), magari fra 5 anni Nvidia si da ai Gelati o ai Phon e AMD alla conquista spaziale... per i piu' attenti: c'è gia' stata qualche avvisaglia
Kharonte85 è offline   Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 19:39   #127
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38298
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
cut


Puo' essere (anzi con la fortuna che mi ritrovo perderei sicuro ), magari fra 5 anni Nvidia si da ai Gelati o ai Phon e AMD alla conquista spaziale... per i piu' attenti: c'è gia' stata qualche avvisaglia
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 19:43   #128
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
Come ho gia' detto non si discute sulle potenzialità, ma il fatto è che secondo me tutte queste belle feauteres [escluso forse l'AA via shader] rimarranno sulla carta (non prima delle dx11 o di una eventuale risposta di nvidia e dell'uscita di windows 7) e poi fra 1-2 anni vedremo chi avra' avuto ragione, potrei anche sbagliarmi ma questa è la sensazione che ho ora e al momento non vedo giri di boa all'orizzonte
più facile che si implementi prima l'utilizzo di MRT per l'AA box filter che non il resolve via shader. Anzi, questa è la soluzione naturale per giochi (anche dx9) che usano MSAA box filter e deferred rendering, mentre l'utilizzo di render to texture (come impongono le dx10 e come fanno i chip NV) è solo una pezza messa li per permettere di utilizzare illuminazione dinamica e MSAA contemporaneamente.

Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi

Non concordo, e niente puo' farmi cambiare idea ora [ma ovviamente capisco e in parte condivido le tue speranze ], sul fatto che le dx10.1 rappresentino un chiaro vantaggio delle schede AMD su quelle nvidia (si valutano altri aspetti molto piu' importanti [prezzo/prestazioni/consumi] e non è certo per questo che AMD avra' successo e Nvidia andra' in rovina), tanto piu' che oggi tutte le schede video si possono scegliere e considerare in base alle sole prestazioni in dx9 [dato che nemmeno esistono giochi totalmente Dx10]
come ripeto il MRT si può utilizzare anche con engine dx9 (ac docet) e da risultati immediati da subito: non è una speranza, ma una certezza. Forse la speranza è da parte dei fan nVIDIA sul fatto che non venga supportato dalle SWHouse.


Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi

C'è un certo conservatorismo nel mondo dell'informatica con cui anche progetti ambiziosi come quelli di Intel con Larrabee dovranno fare i conti.


Da quando è uscita la notizia di Larrabee stavo anche riflettendo sugli scenari futuri possibili (piu' per gioco che per ambizioni divinatorie ) e a dire il vero credo che non sia possibile la strada dell'integrazione totale fra CPU e GPU nemmeno fra 10 anni dopotutto prima o poi la riduzione del processo produttivo porra' dei limiti fisici all'integrazione; quindi non so quanto valga la pena andare verso un'integrazione per poi tornare a lavorare con PC grossi come delle stanze (per componente ) ovviamente esagero pero' non credo che la strada di intel possa avere cosi' vita facile (sul lato GPU)...poi quando sara' uscito larrabee faremo meglio i conti anche perche' mi pare che ci sia ancora una fitta coltre di fumo un po' in tutte le direzioni...

Alla fine per ora abbiamo solo ambizioni, da una parte GPU che vorrebbero fare anche le CPU (ATI e Nvidia) dall'altra CPU che vorrebbero fare GPU (intel con Larrabee) risultati al momento pochi o nulli se escludiamo qualche tech demo scritta appositamente (vedere la fisica di nvidia) le cose potrebbero cambiare come anche no...

Potrebbe (quello che sta avvenendo) essere che ci sara' un' invasione di campo da parte di un po' tutti ma credo che alla fine le cose non cambieranno poi molto e che salvo imprevisti, che nessuno si augura, tutte e tre (4, se consideriamo ATI ancora entita' separata) queste aziende continuino a fare quello che fanno oggi.

Bon, la mia previsione l'ho fatta...sotto con le scomesse!!!
non si parla tanto di integraziona quanto di convergenza: sono cose ben distinte e la convergenza si sta già realizzando: su x360 la gpu può fare da unità centrale e la cpu da coprocessore (i ruoli si sono invertiti ). Le gpu ATi per pc è dalla serie R5x0 che sono in grado di fare alcune delle operazioni tipiche di una cpu (funzionalità mai esposte finora) e le dx11 faranno accelerare il processo di convergenza rendendo sempre più simili le gpu alle cpu anche nella tipologia di alcune unità di calcolo (il calcolo a 64 bit, pipeline di tipo INT, ecc). Ovvio che con le gpu in grado di fare le cpu (e con molta più potenza di calcolo) ad essere spiazzati sarebbero i produttori di cpu che allora di danno a chip ibridi che abbiano una potenza di calcolo paragonabile a quella di una gpu, pur essendo di fatto, ancora cpu-like, oppure si comprano i porduttori di gpu

Ultima modifica di yossarian : 07-08-2008 alle 20:30.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 20:22   #129
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Quote:
Originariamente inviato da yossarian Guarda i messaggi
più facile che si implementi prima l'utilizzo di MRT per l'AA box filter che non il resolve via shader. Anzi, questa è la soluzione naturale per giochi (anche dx9) che usano MSAA box filter e deferred rendering, mentre l'utilizzo di render to texture (come impongono le dx10 e come fanno i chip NV) è solo una pezza messa li per permettere di utilizzare illuminazione dinamica e MSAA contemporaneamente.



come ripeto il MRT si può utilizzare anche con engine dx9 (ac docet) e da risultati immediati da subito: non è una speranza, ma una certezza. Forse la speranza è da parte dei fan nVIDIA sul fatto che non venga supportato dalle SWHouse.
Non ribaltiamo le cose...

La tua è (come di chi ha o avra' [non escludendo il sottoscritto] una scheda AMD/ATI) speranza che lo facciano, non hai la certezza per ora, io invece ho la certezza che fin'ora non l'hanno fatto (salvo AC ecc..ecc..)...quindi sei tu che speri...Del doman non c'è certezza


Quote:
Originariamente inviato da yossarian Guarda i messaggi
non si parla tanto di integraziona quanto di convergenza: sono cose ben distinte e la convergenza si sta già realizzando: su x360 la gpu può fare da unità centrale e la cpu da coprocessore (i ruoli si sono invertiti ). Le gpu ATi per pc è dalla serie R5x0 che sono in grado di fare alcune delle operazioni tipiche di una cpu (funzionalità mai esposte finora) e le dx11 faranno accelerare il processo di convergenza rendendo sempre più simili le gpu alle cpu anche nella tipologia di alcune unità di calcolo (il calcolo a 64 bit, pipeline di tipo INT, ecc).
Infatti convergenza è quello che io chiamo andare a invadere il campo di un'altro, ma intel con Larrabee mi sembra proprio che punti in futuro ad una strada che conduce ad una integrazione: una cosa che fa tutto, anche se probabilmente all'inizio la fara' male...

poi con le dx11 vedremo...

Quote:
Originariamente inviato da yossarian Guarda i messaggi
Ovvio che con le gpu in grado di fare le cpu (e con molta più potenza di calcolo) ad essere spiazzati sarebbero i produttori di cpu che allora di danno a chip ibridi che abbiano una potenza di calcolo paragonabile a quella di una gpu, pur essendo di fatto, ancora cpu-like, oppure si comprano i porduttori di gpu
Infatti questo fa paura, ecco perche' le mosse di intel potrebbero rappresentare il preludio alla morte di uno dei due animali feriti...

Ultima modifica di Kharonte85 : 07-08-2008 alle 20:25.
Kharonte85 è offline   Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 20:36   #130
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38298
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
Non ribaltiamo le cose...

La tua è (come di chi ha o avra' [non escludendo il sottoscritto] una scheda AMD/ATI) speranza che lo facciano, non hai la certezza per ora, io invece ho la certezza che fin'ora non l'hanno fatto (salvo AC ecc..ecc..)...quindi sei tu che speri...Del doman non c'è certezza
al limite è la speranza che verrano implementate presto, anzi prestissimo (in tempo a far vendere quante più 48x0 possibile ) : di sicuro giochi dx10.1 "in massa" si vedranno ma per quell'epoca avremo i nuovi chip dx11 e (così pare) larrabee
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 20:37   #131
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
Non ribaltiamo le cose...

La tua è (come di chi ha o avra' [non escludendo il sottoscritto] una scheda AMD/ATI) speranza che lo facciano, non hai la certezza per ora, io invece ho la certezza che fin'ora non l'hanno fatto (salvo AC ecc..ecc..)...quindi sei tu che speri...Del doman non c'è certezza
avevo modificato il post precedente ma mi avevi già quotato, per cui riporto qui le modifiche

credo che il tutto nasca da un fraintendimento di cui mi assumo tutte le responsabilità. Quando si ha un motore che fa deferred rendering (in realtà sia quello di stalker che l'ue3 fanno solo deferred lightning, ma all'atto pratico non cambia nulla), si ha il problema di rendere fruibili i risultatii contenuti nello z-buffer per le successive operazioni (sono quei risultati su cui si applica il MSAA box filter). L'HW dx9 è impossibilitato a farlo, poichè non può salvarli da nessun'altra parte che non sia lo z-buffer stesso e questi dati vengono sovrascritti (e quindi resi inutilizzabili) quando si procede alle operazioni di color e alpha blending. Con l'HW dx10 è possibile salvare questi risultati su una texture e riutilizzare lo z-buffer per le color ops. Questo però comporta una maggior occupazione di bandwidth e tutta una serie di operazioni in più (ogni volta che serovno i dati si deve effettuare un'operazioni di texture fetch). La terza soluzione è quella che permette di utilizzare 2 diversi render target per z-ops e color ops, entrambi accessibili in ogni momento e, se necessario, contemporaneamente. Ogni render target ha le sue modalità di blending (altro problema da superare in caso di render to texture, poichè per le z-ops e per il MSAA box filter si usa INT8, mentre per le color ops fp32). Quest'ultima è la soluzione possibile con HW dx10.1 (o dx11).

Per questo motivo ho la certezza che si farà uso (e anche piuttosto presto) di MRT. Finora non si sono visti titoli dx10 ma solo titoli dx8/9 con qualche feature simil-dx10 appiccicata qua o là. Nel momento in cui si inizierà a far uso di deferred rendering e MSAA, l'implementazione della soluzione che fa uso di MRT è non solo la migliore ma anche la più probabile. I motori grafici, finora nascono su HW che non può gestire illuminazione dinamica (di tipo deferred) e MSAA. Adesso c'è HW in grado di gestire le due cose con modalità differenti e non è difficile implementarle entrambe. Tra l'altro, potrei sbagliarmi, ma credo che lì'utilizzo di MRT su un engine in cui è previsto l'uso di render to texture, potrebbe essere fatta anche via driver senza tanti sbattimenti (probabilmenyte, ma non ci metto la mano sul fuoco, non essendo un programmatore) è sufficiente sostituire una chiamata di tipo render to texture con una di tipo render to target
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 20:56   #132
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Quote:
Originariamente inviato da appleroof Guarda i messaggi
al limite è la speranza che verrano implementate presto, anzi prestissimo (in tempo a far vendere quante più 48x0 possibile ) : di sicuro giochi dx10.1 "in massa" si vedranno ma per quell'epoca avremo i nuovi chip dx11 e (così pare) larrabee
Stai buono che scorsa settimana fra un po' mi entrava nel case aggratis ... poi tutto è sfumato...pazienza

Ma poi non capisco dove sia il problema male che vada appunto si compra ATI se diventa una cosa cosi' fondamentale
Quote:
Originariamente inviato da yossarian Guarda i messaggi
credo che il tutto nasca da un fraintendimento di cui mi assumo tutte le responsabilità.

CUT
In ginocchio sui CECI!!!!!






Ma che te voi scusa' e chessaramai siamo in colloquio informale (sempre interessante), anche se facciamo previsioni diverse o abbiamo opinioni diversa mica ci dobbiamo fucilare a vicenda stay relaxed

Comunque ho capito cosa intendi, ormai aspettiamo e vediamo (anche perche' siamo un po' OT )
Kharonte85 è offline   Rispondi citando il messaggio o parte di esso
Old 07-08-2008, 21:09   #133
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38298
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
cut
Ma poi non capisco dove sia il problema male che vada appunto si compra ATI se diventa una cosa cosi' fondamentale
cut
infatti nessun male, anzi: solo che sono quasi convinto che quando avremo tanti, la maggior parte, di giochi dx10.1 o "full dx10" che dir si voglia, ci saranno le nuove schede (dx11) Ati, Nvidia e a quanto pare Intel, tutto qui
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 08-08-2008, 07:40   #134
Simon82
Senior Member
 
Iscritto dal: Jan 2001
Messaggi: 9098
Quote:
Originariamente inviato da appleroof Guarda i messaggi
infatti nessun male, anzi: solo che sono quasi convinto che quando avremo tanti, la maggior parte, di giochi dx10.1 o "full dx10" che dir si voglia, ci saranno le nuove schede (dx11) Ati, Nvidia e a quanto pare Intel, tutto qui
Si e' gia' sperimentata tante di quelle volte questa situazione di transizione che ormai non si conta piu'... quante features rimaste inutilizzate per la mancanza di tempo (voglia o marketing) degli sviluppatori. Negli anni avremmo visto capacita' di per pixel shading gia' dall'NV15 e invece abbiamo aspettato ancora un'eternita' per vedere i primi effettucci con le prime pozzanghere d'acqua dei giochi dx8... (estremizzo...) .
__________________
26/07/2003
Simon82 è offline   Rispondi citando il messaggio o parte di esso
Old 08-08-2008, 07:45   #135
Foglia Morta
Senior Member
 
L'Avatar di Foglia Morta
 
Iscritto dal: Jul 2005
Messaggi: 7819
Microsoft game studios va con Havok definitivamente quindi Physx di nVidia sarebbe tagliata fuori dai giochi per quel che riguarda Microsoft: http://www.gamerchip.com/can-the-hav...box-exclusive/

E a questo punto immagino che Microsoft sia più favorevole a favorire Havok anche per le DX11

qualche info sull DX11:

http://www.realtimerendering.com/blo...-part-i-intro/

http://www.realtimerendering.com/blo...-tessellation/

e qualche pdf di nVidia: http://news.developer.nvidia.com/200...st-presen.html
__________________
Sample is selezionated !
Foglia Morta è offline   Rispondi citando il messaggio o parte di esso
Old 08-08-2008, 08:34   #136
Simon82
Senior Member
 
Iscritto dal: Jan 2001
Messaggi: 9098
Quote:
Originariamente inviato da Foglia Morta Guarda i messaggi
Microsoft game studios va con Havok definitivamente quindi Physx di nVidia sarebbe tagliata fuori dai giochi per quel che riguarda Microsoft: http://www.gamerchip.com/can-the-hav...box-exclusive/

E a questo punto immagino che Microsoft sia più favorevole a favorire Havok anche per le DX11

qualche info sull DX11:

http://www.realtimerendering.com/blo...-part-i-intro/

http://www.realtimerendering.com/blo...-tessellation/

e qualche pdf di nVidia: http://news.developer.nvidia.com/200...st-presen.html
Physx : Nvidia = Bitboys : ATi = Gigapixel : 3DFx ........ = Soldi ben spesi.

Scherzi a parte era quantomeno OVVIO che finisse cosi' e se non ricordo male lo avevamo ipotizzato gia' un casino di tempo fa. Microsoft comanda e comanda cio' che a lei commercialmente conviene.
__________________
26/07/2003
Simon82 è offline   Rispondi citando il messaggio o parte di esso
Old 08-08-2008, 09:40   #137
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38298
Brutto colpo per i verdi, Microsoft ha siglato un accordo di licenza per la fisica nei propri giochi con Havok. L’accordo mette tutti i prodotti Havock, Physics, Animation e Behaviour disponibili negli studio interni a Microsoft e a tutti i suoi partner internazionali. Intel e AMD ringraziano.

Fra i titoli Microsoft in fase di sviluppo che usano Havok troviamo Fable 2, Halo Wars e Banjo Kazooie: Nuts and Bolts.

Microsoft usa prodotti Havok dal 2001e il motore di fisica è stato inserito in tanti titoli Microsoft come Halo 3, Halo 2 e Age of Empires III.


http://www.theinquirer.it/2008/08/07...ena-havok.html

ricollegandoci ai discorsi che facevamo su questo stesso tread, non so Amd, ma Intel ringrazia davvero (soldi ben spesi)


Azz, ho trovato questa notizia vecchissima: http://www.hwupgrade.it/news/videogi...ine_19555.html altro che novità

inoltre, Nvidia in passato aveva già collaborato strettamente per far girare havock fx sulle sue vga http://www.nvidia.it/object/IO_30500.html a voi i commenti....
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto

Ultima modifica di appleroof : 08-08-2008 alle 09:52.
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 08-08-2008, 09:59   #138
tigershark
Bannato
 
Iscritto dal: Jun 2007
Messaggi: 1186
Quote:
Originariamente inviato da appleroof Guarda i messaggi
Brutto colpo per i verdi, Microsoft ha siglato un accordo di licenza per la fisica nei propri giochi con Havok. L’accordo mette tutti i prodotti Havock, Physics, Animation e Behaviour disponibili negli studio interni a Microsoft e a tutti i suoi partner internazionali. Intel e AMD ringraziano.

Fra i titoli Microsoft in fase di sviluppo che usano Havok troviamo Fable 2, Halo Wars e Banjo Kazooie: Nuts and Bolts.

Microsoft usa prodotti Havok dal 2001e il motore di fisica è stato inserito in tanti titoli Microsoft come Halo 3, Halo 2 e Age of Empires III.


http://www.theinquirer.it/2008/08/07...ena-havok.html

ricollegandoci ai discorsi che facevamo su questo stesso tread, non so Amd, ma Intel ringrazia davvero (soldi ben spesi)


Azz, ho trovato questa notizia vecchissima: http://www.hwupgrade.it/news/videogi...ine_19555.html altro che novità

inoltre, Nvidia in passato aveva già collaborato strettamente per far girare havock fx sulle sue vga http://www.nvidia.it/object/IO_30500.html a voi i commenti....
capirai...i giochi microsoft non sono poi mica cosi tanti..quindi non ci vedo tutto questo colpaccio. Case produttrici di giochi ben più blasonate supportano da sempre Nvidia. In ogni caso ormai con l'ottica di GPU general purpose che prende sempre più piede, non ci vedo nulla di strano o difficile nel rendere compatibile le proprie GPU sia con un motore che con l'altro...dimenticate che Nvidia detiene la fetta di mercato più grande ed un colosso succhiasoldi come Microsoft di certo non la taglierebbe mai fuori....
tigershark è offline   Rispondi citando il messaggio o parte di esso
Old 08-08-2008, 10:11   #139
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Era palese che Microsoft scegliesse la via piu' semplice, infatti fino ad oggi l'uso dell' Havok non è mai stato legato alle GPU ma solo alle CPU (AMD ha partecipato soprattutto per questo motivo secondo me) e quindi ha avuto da sempre più mercato (rispetto alle alternative: o niente fisica o PPU AGEIA dedicata)



La fisica proposta da nvidia invece è di tutt'altro livello (e i primi test condotti sembrano mostrare risultati migliori di quanto pensassi) tutto dipenderà da quanti produttori di giochi saranno disponibili a impegnarsi per supportarla seriamente...nvidia dovrà spingere soprattutto sulla prossima console Sony se vuole ottenere dei risultati in futuro...

@appleroof: prima dell'acquisizione da parte di Intel, havok aveva sviluppato dei tool ,chiamati proprio havok FX, sia per schede nvidia che ATI, poi tutto è finito in fumo...

Ultima modifica di Kharonte85 : 08-08-2008 alle 12:02.
Kharonte85 è offline   Rispondi citando il messaggio o parte di esso
Old 08-08-2008, 10:26   #140
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38298
Quote:
Originariamente inviato da tigershark Guarda i messaggi
capirai...i giochi microsoft non sono poi mica cosi tanti..quindi non ci vedo tutto questo colpaccio. Case produttrici di giochi ben più blasonate supportano da sempre Nvidia. In ogni caso ormai con l'ottica di GPU general purpose che prende sempre più piede, non ci vedo nulla di strano o difficile nel rendere compatibile le proprie GPU sia con un motore che con l'altro...dimenticate che Nvidia detiene la fetta di mercato più grande ed un colosso succhiasoldi come Microsoft di certo non la taglierebbe mai fuori....
quoto, però resta che la monopolista (directx) si schiera per havock, che poi i giochi che sviluppa MS in sè siano pochi siamo d'accordo, quello che pesa secondo me, alla luce della "guerra" in atto sopratutto tra Intel ed Nvidia, è la scelta di campo fatta....stiamo a vedere

Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
Era palese che Microsoft scegliesse la via piu' semplice, infatti fino ad oggi l'uso dell' Havok non è mai stato legato alle GPU ma solo alle CPU (AMD ha partecipato soprattutto per questo motivo secondo me) e quindi ha avuto da sempre più mercato (rispetto alle alternative: o niente fisica o PPU AGEIA dedicata)

La fisica proposta da nvidia invece è di tutt'altro livello (e i primi test condotti sembrano mostrare risultati migliori di quanto pensassi) tutto dipenderà da quanti produttori di giochi saranno disponibili a impegnarsi per supportarla seriamente...nvidia dovrà spingere soprattutto sulla prossima console Sony se vuole ottenere dei risultati in futuro...

@appleroof: prima dell'acquisizione da parte di Intel, havok aveva sviluppato dei tool ,chiamati proprio havok FX, sia per schede nvidia che ATI, poi tutto è finito in fumo...
è vero, physx è 100 volte meglio di havock, non vorrei che per i soliti giochi di potere (in questo caso MS fà un "dispetto" a SOny, ma indirettamente favorisce Intel vs Nvidia, sembra il risiko ) come al solito a rimanere fregati siamo noi consumatori finali di queste tecnologie....anche qui stiamo a vedere

p.s.: ricordo havock fx, l'ho riportato perchè secondo me nulla vieta che esso possa essere implementato su schede Nvidia (come physx su Ati), dipende tutto dai citati giochi di potere...
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


OVHcloud Summit 2025: le novità del cloud europeo tra sovranità, IA e quantum OVHcloud Summit 2025: le novità del cloud...
Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI Care e DisplayPort 2.1a Un mostro da MSI: QD-OLED WQHD a 500 Hz con AI C...
DJI Neo 2 in prova: il drone da 160 grammi guadagna il gimbal e molto altro DJI Neo 2 in prova: il drone da 160 grammi guada...
L'IA "seria" di Appian è diversa: inserita nei processi e rispetta dati e persone L'IA "seria" di Appian è divers...
Polestar 3 Performance, test drive: comodità e potenza possono convivere Polestar 3 Performance, test drive: comodit&agra...
Il lancio del razzo spaziale riutilizzab...
Google integra la AI Mode anche in Cerch...
Apple Maps e Ads sono Gatekeeper? L'Euro...
Il nuovo pieghevole Huawei Mate X7 &egr...
L'app Apple Podcasts si comporta in modo...
Una copia fisica di Fortnite è st...
Motorola prepara il suo primo smartphone...
Hisense in forte ribasso: il 75 pollici ...
Galaxy S27 Ultra potrebbe utilizzare la ...
Ultimi 2 giorni: ecco le offerte Amazon ...
Maxi sconti su wallbox e cavi per la ric...
Tutti gli sconti più forti sugli ...
Il prossimo smartphone di OnePlus avr&ag...
Che fine ha fatto il Trump Phone? L'usci...
TOP 10 Amazon Black Friday, aggiornata: ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 18:06.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v