Radeon R9 290X: AMD ridefinisce la scheda top di gamma

Radeon R9 290X: AMD ridefinisce la scheda top di gamma

Al debutto la nuova proposta di fascia alta di AMD per il mercato delle schede video desktop, basata sulla nuova GPU nota con il nome in codice di Hawaii. L'architettura alla base rimane quella delle GPU Tahiti, migliorata e affinata oltre che notevolmente velocizzata grazie all'aumento degli stream processors e al bus memoria da 512bit. Il tutto condito da un prezzo di listino molto aggressivo, e da prestazioni allineate a quelle di GeForce GTX Titan

di pubblicato il nel canale Schede Video
AMDGeForceRadeonNVIDIA
 
  • Articoli Correlati
  • Radeon R9 280X: le soluzioni MSI e Sapphire Radeon R9 280X: le soluzioni MSI e Sapphire Alla prova dei fatti la nuova proposta di AMD per il segmento di fascia medio alta del mercato delle schede video desktop: analizzate le schede Sapphire R9 280X Toxic e MSI R9 280X Twin Frozr Gaming OC, modelli che grazie a differenti livelli di overclock pareggiano il conto con le schede Radeon HD 7970 GHz Edition
  • AMD Radeon R9 270X e R7 260X: il nuovo che è già visto AMD Radeon R9 270X e R7 260X: il nuovo che è già visto Diventano pubbliche le informazioni tecniche e prestazionali sulle prime schede video di nuova generazione di AMD, modelli Radeon R9 280X, R9 270X e R7 260X. Alla base architetture video già presenti in commercio con alcune opportune migliorie, in attesa del debutto delle prime schede dotate di GPU Hawaii
  • GPU, Mantle e il futuro di AMD: intervista a Raja Koduri GPU, Mantle e il futuro di AMD: intervista a Raja Koduri In occasione dell'evento di presentazione delle nuove GPU AMD attese per la fine dell'anno abbiamo avuto occasione di discutere con Raja Koduri, Corporate Vice President of Visual Computing per AMD, delle molte novitò annunciate oltre che di quelle che saranno le direzioni del mercato della grafica 3D
364 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
tuttodigitale26 Ottobre 2013, 13:18 #241
Originariamente inviato da: sundraw83
La versione con ventola di fabbrica la trovo a 560 euro. Quelle moddate staranno intorno ai 100 euro in più. Fermi v1 venne molto criticata per temps e consumi. Ora invece è tutto ok.

Diamo un pò di numeri se no qui non si capisce una mazza:
la differenza di prestazioni per watt tra
Titan e R9 290X è del 7,9% a favore di Titan,
GTX780 e R9 290x è del 5,3%

Invece, la HD5870 era più efficiente della GTX480 del 62% . (fonte techpowerup)
lla HD5870 era più efficiente della GTX580 del 23%. In definitiva la seconda reicarnazione di Fermi ha portato ad un aumento dell'efficienza del 32%.


Parliamo di cose molto diverse. E' vero la R9 290x consuma poco meno della GTX480, ma le varie Titan, GTX680, GTX780 consumano molto ma molto di più della HD5870 (80-120W in più, in alcuni casi il doppio quindi)

PS la r9 290x in configurazioni multi-monitor è la più efficiente di tutte, superando la TITAN di un buon 10-15%....

PPS valutare i prezzi di schede video uscite il giorno prima non è corretto. Già dalla prossima settimana vedremo prezzi in alcuni casi già allineati a listino

PPPS a rileggere questi numeri mi è venuta quasi la nostalgia per l'architettura vliw...
yossarian26 Ottobre 2013, 13:27 #242
Originariamente inviato da: Maury
Ciao Yoss, questa parte è stupenda, mi hai strappato un sorriso ed una risata eheh

E' un vero piacere rileggerti!!

Yoss in Hawaii AMD ha usato transistor ad alta densità a tuo avviso ?


se li hanno usati, è stato solo per il MC (mi fa pensare il fatto che si sia passati da 384 a 512 bit risparmiando il 20% di spazio). D'accordo le ottimizzazioni ma questa mi pare eccessiva anche perché i 28 nm sono "fuori" da un po' e molte cose sono già state limate in precedenza

Originariamente inviato da: appleroof
Yossarian intanto ciao...poi volevo farti presente che in game praticamente TUTTE le Titan e le 780 arrivano prossime a 1ghz di frequenza in boost, a dispetto dei dati di targa, e parlo di boost automatico, non overclock applicato dall'utente. Nvidia è stata conservativa nell'indicare i dati di targa delle Geforce che montano gk110, ma ti ripeto che praticamente tutte si approssimano e a volte toccano 1ghz di frequenza senza problemi, nell'uso di tutti i giorni e senza overclock manuale (e quindi pure nelle review).


ciao Apple, non è proprio così. Il GPU boost 2 limita la frequenza del chip in base alla temperatura e/o al consumo. Titan lavora con tensione di circa 1,162 V e la temperatura di "soglia" è impostata a 80°C di default. Con queste impostazioni, in game, nonostante ciò che dichiari nVidia, il chip non supera mai la frequenza di boost di 875/880 MHz. Per poterlo fare è necessario cambiare la velocità di rotazione della ventola (portandola all'85%) e si riesce ad arrivare ad una frequenza di boost di circa 995 MHz, oppure,s e si vuole andare oltre, aumentare leggermente la tensione (di circa 36-38 mV perché oltre diventa instabile e la protezione tende a riabbassarla automaticamente ai valori di default indipendentemente da quanto è stato impostato) e portare la soglia della temperatura a 94-95°C. In questo modo è possibile raggiungere una frequenza massima di boost attorno ai 1130 MHz (oltre il sistema va in crash e non è possibile compensare aumentano ancora la tensione di alimentazione). Le prestazioni salgono con questi ultimi accorgimenti di circa il 15-20% a seconda dei titoli ma anche i consumi aumentano arrivando a superare quelli di hawaii. Inoltre c'è da considerare che la rilevazione avviene in una arco di tempo tale da non potersi considerare istantanea e con la funzione "boost frequency" i chip nVidia hanno continue oscillazioni della frequenza di funzionamento che non permettono di affermare che il chip lavori "stabile" a una determinata frequenza

Originariamente inviato da: appleroof
Inoltre, a parità di dissipatore io passando da frequenze default a boost su 1110mhz (e memorie da 6ghz qdr a 6,4ghz che di sicuro ci mettono del loro nelle temp generali) ho visto la temperatura salire di pochi gradi, segno che i consumi non è che salissero in maniera spropositata; nelle recensioni di Hawaii invece in proporzione l'aumento di frequenze porta un aumento di consumi e temperature proporzionalmente maggiore.

a parità di dissipatore dovrebbe valere tra hawaii e titan o 780 GTX. Non credo che il dissipatore di hawaii abbia una qualità eccelsa
Il fatto che le temperature non variassero di molto dipende dal "limitatore" di temperatura impostato sul chip. Però tieni conto che il limitatore funziona in modo tale che se hai impostato di default un valore di 80°C, come la temperatura si avvicina a quel limite la frequenza di funzionamento di abbassa. In questo modo, su scene con carichi elevati hai continui picchi di frequenze in alto e in basso che limitano le temperature ma anche le prestazioni

Originariamente inviato da: appleroof

Io mi sono persuaso che invece gk110 non è stato progettato per i 20 nm (ed infatti esiste da più di un anno, se ci metti il tapeout esiste da almeno marzo/aprile 2012, troppo presto per progettare un chip per quel pp, anche se fosse stato pronto, il pp a 20nm, per fine di quest'anno come previsto inizialmente) mentre Hawaii si, ed è stato riadattato ai 28nm (forse analogamente a Cayman che era per i 32nm e poi fu fatto per i 40nm)


il fatto che esista da oltre un anno vuol dire poco. GK110 è un chip molto complesso e di enormi dimensioni e ha costretto nVidia, per poter avere un maggior boost di frequenze in game, a disabilitare il DP sulla 780 per abbassare i consumi in caso di aumento delle frequenze. La mia idea è che se ci fossero stati i 20 nm, la 780 non sarebbe uscita affatto perché il vero GK110, di fatto, è titan

Originariamente inviato da: appleroof

Pare inoltre (ma devo ritrovare la fonte) che su Hawaii Amd abbia usato transistor ad alta densità, se fosse vero questo potrebbe contribuire a spiegare, oltre alle frequenze tirate, i consumi e di conseguenza il calore esagarati di questo chip, non credi?


come ho risposto a Maury, penso che se sia stato fatto uso di transistor ad alta densità questo sia avvenuto solo per il memory controller. I transistor ad alta densità possono causare un aumento della temperatura da smaltire (a causa del fatto che le connessioni sono disposte su tre dimensioni) ma non dei consumi del chip. Quelli sono conseguenza del numero di transitor e di altri fattori legati alle caratteristiche del PP e delle librerie utilizzate

Originariamente inviato da: Free Gordon

Beh, hanno messo 12 unità e ne hanno spenta una per aumentare le rese...
A parte il discorso accoppiamento rops ecc, imho era meglio spenderci un pò di più sul chip (parlo di grandezza) e giocarsela meglio dal pdv consumi/calore..no? In fondo Titan è 100mmq più grossa di Hawaii...


nVidia e AMD/ATi hanno un approccio diverso alla progettazione del layout del chip. Quello di nVidia tende al superscalare, quello di AMD al vettoriale. Ognuno ha vantaggi e svantaggi a seconda dell'applicazione che ci deve girare e di come è ottimizzata. L'approccio di nVidia, a livello di unità di calcolo è più efficiente per watt (molte energia la spende per la logica di controllo delle unità di calcolo) quello di AMD è più efficiente per unità di superficie (meno circuiti di controllo, feedback, ecc, ma molte più unità di calcolo per unità di superficie). Inoltre, questo porta anche a vantaggi e svantaggi sul piano dei blocchi e non solo delle singole unità funzionali. L'architettura di GK110 risulta più efficiente nelle operazioni geometriche e ha più texture unit. Quella di AMD va meglio con le operazioni matematiche quando c'è la possibilità di ottenere un elevato parallelismo (ad esempio molte applicazioni di tipo GPGPU), è nettamente superiore nelle operazioni di rendering e ha latenze inferiori negli accessi alle memorie e nelle operazioni che implicano trasferimento di dati dai registri. Quindi, limitare il confronto a dimensioni, watt e temperature e molto "riduttivo". C'è anche da aggiungere che a questo giro, nVidia ha fatto un eccellente lavoro nel contenere consumi e temperature (il limitatore di tensione, temperatura e consumo funziona veramente bene)

Originariamente inviato da: Free Gordon

Certo che non potevano prevedere tutto per filo e per segno...(leggasi comsumi esagerati) però fà strano vedere una Titan consumare 50W in meno..... non ti pare?

titan lavora anche a frequenze di molto inferiori

Originariamente inviato da: Free Gordon

E nel caso fosse un'archi nuova, si prospetterebbe la famosa prova del fuoco della doppietta "nuovo PP, archi nuova" di cui hai sempre detto peste e corna.


se Maxwell è un'architettura nuova, la transizione da Kepler avverrà ancora a 28 nm e solo poi si passerà ai 20 con la nuova architettura già collaudata.

Originariamente inviato da: Free Gordon

Domandona: secondo te, AMD ad oggi è ancora avanti di mezzo nodo nel pp (o in generale nel rapporto con TSMC), oppure a causa del ritardo sui 20nm di TSMC ha perso questo vantaggio?


no, non è più in vantaggio. Entrambe hanno avuto modo di collaudare bene i 28 nm e sono pronte a passare ai 20

Originariamente inviato da: Free Gordon

Quì la domanda è se non sai davvero o non vuoi dire... un'idea ce l'avrai di sicuro.


si, un'idea ce l'ho ma, al momento, preferisco tenermela. Comunque non credo sia questione di driver

Originariamente inviato da: Free Gordon

Ho visto dai test del fillrate su Hawai.

La gpu di XboxONE e quella di PS4 hanno questo stesso schema secondo te?


si, suppongo che l'approccio per le RBE sia quello utilizzato per hawaii a livello di operazioni di blending.
Free Gordon26 Ottobre 2013, 13:30 #243
Originariamente inviato da: PaulGuru
Maxwell è previsto al Q1 2014, volevo sapere se AMD aveva in previsione un ulteriore architettura per contrastarlo o se lo farà rimanendo con queste.


Sicuramente AMD farà GPU più grosse ma non penso con architetture molto differenti, perché sennò il progetto Mantle se ne va' a farsi benedire.

Nvidia non si sa se farà un cambio netto di architettura (non credo) ma tutte e due le case scaleranno ai 20nm appena possono / appena sarà conveniente.

Fino a qualche tempo fà, AMD era in vantaggio sull'half node, ma il salto ai 20nm è un nodo intero, quindi probabile che AMD ed Nvidia arrivino più o meno insieme sui 20nm ma AMD dovrebbe uscire prima con i 16 finFET. Tutta teoria cmq.

Se Maxwell è atteso per aprile 2014, AMD farà almeno un refresh @20nm della 290X, magari con una 290XT.
yossarian26 Ottobre 2013, 13:32 #244
Originariamente inviato da: AceGranger
hai detto proprio bene, bench di OpenCL.... io parlavo di software GPGPU CUDA veri e funzionanti; di OpenCL nVidia non ha per nulla ottimizzato, se ne è sbattuta allegramente per non intaccare il suo monopolio nel professionale; e dipende sempre da software a software, perchè se prendo Photoscan, che è un software professionale per la ricostruzione 3D mediante fotografie che utilizza OpenCL, le nVidia vanno molto meglio e gli stessi programmatori le consigliano;
TUTTI i migliori motori di rendering GPGPU sono CUDA, o come nel caso di Vray RT dove è presente sia OpenCL che CUDA, la versione CUDA va molto meglio, motivo per cui nessuno usa le AMD.

Ad oggi, OpenCL nei software professionali di grafica è praticamente a quota zero, e dove c'è o vanno meglio le nVidia o è irrilevante avere nVidia o AMD come nel caso della suite Adobe; nel futuro, che non sara certo nel breve periodo, vedremo.


questo perché opencl è mono sviluppato ma non necessariamente inferiore a CUDA, anzi. Lo stesso approccio utilizzato in CTM da AMD permette un controllo delle funzioni della GPU a livello molto più basso rispetto a CUDA. Il fatto che CUDA sia più sviluppato e diffuso significa solo che nVidia è stata brava a introdurlo prima e a convincere le SW house ad utilizzarlo ma non che le GPU di nVida siano migliori. I test sintetici danno la misura delle prestazioni REALI di un chip, contrariamente a quello che puoi pensare e permettono anche di individuare punti di forza e punti deboli (e ottimizzare di conseguenza).
VRay è un motore per CAD e fa uso molto limitato di GPGPU. Il GPGPU è un'altra cosa. Questo intendevo con la differenza tra CAD e GPGPU
AceGranger26 Ottobre 2013, 13:49 #245
Originariamente inviato da: yossarian
questo perché opencl è mono sviluppato ma non necessariamente inferiore a CUDA, anzi. Lo stesso approccio utilizzato in CTM da AMD permette un controllo delle funzioni della GPU a livello molto più basso rispetto a CUDA. Il fatto che CUDA sia più sviluppato e diffuso significa solo che nVidia è stata brava a introdurlo prima e a convincere le SW house ad utilizzarlo ma non che le GPU di nVida siano migliori. I test sintetici danno la misura delle prestazioni REALI di un chip, contrariamente a quello che puoi pensare e permettono anche di individuare punti di forza e punti deboli (e ottimizzare di conseguenza).


questo non lo metto in dubbio, il mio è un sempice spaccato di quello che è la realta, che sia idealmente uguale o migliore non è che importi molto è... conta quello che ci puoi fare; non so tu, ma io compro una VGA in base a quello che posso fare non a quello che in un futuro non definito potro forse fare.

Originariamente inviato da: yossarian
VRay è un motore per CAD e fa uso molto limitato di GPGPU. Il GPGPU è un'altra cosa. Questo intendevo con la differenza tra CAD e GPGPU


e in cosa sarebbe limitato ? visto che funziona interamente su GPU, la impegna al 100%, e sono calcoli matematici, perchè mai quello dovrebbe essere limitato, mentre la decrittazione di password, il mining o un calcolo di fluidodinamica non dovrebbero esserlo ?
PaulGuru26 Ottobre 2013, 14:03 #246
Originariamente inviato da: Free Gordon
Sicuramente AMD farà GPU più grosse ma non penso con architetture molto differenti, perché sennò il progetto Mantle se ne va' a farsi benedire.

Nvidia non si sa se farà un cambio netto di architettura (non credo) ma tutte e due le case scaleranno ai 20nm appena possono / appena sarà conveniente.

Fino a qualche tempo fà, AMD era in vantaggio sull'half node, ma il salto ai 20nm è un nodo intero, quindi probabile che AMD ed Nvidia arrivino più o meno insieme sui 20nm ma AMD dovrebbe uscire prima con i 16 finFET. Tutta teoria cmq.

Se Maxwell è atteso per aprile 2014, AMD farà almeno un refresh @20nm della 290X, magari con una 290XT.

Cioè fammi capire, ATI rimarrà con la stessa architettura perchè sennò Mantle non sarà più compatibile ?
Comunque sia Nvidia ha in arrivo Maxwell, ATI invece volevo sapere più nello specifico .... a breve ha in previsione un altro nomignolo o no ?


Maxwell dall'ultima news sembrerebbe essere parecchio diverso con GM100 :
[I]The NVIDIA Maxwell GM100 chip would consist of 8 GPCs consisting of 24 SMX modules (3 SMX Per GPC), 384 TMUs,[B] [SIZE="3"]6144 Cuda Cores[/SIZE], 8 MB of L3 Cache [/B](8 L2 cache’s per GPC), 64 ROPs, a 512-bit interface followed by a VRAM upto 8 GB GDDR5 operation at around 6 GHz. The GM100 is supposed to replace the high-performance GK110 chip so its going to end up in both GeForce parts and Tesla parts. It will probably show up in the Tesla parts first before shipping to consumers.
Clock frequencies would be maintained at different levels for each product tier as listed below:
GeForce GM100: 930 MHz Core / 1 GHz Boost
Tesla GM100: 850 MHz (2.61 TFlops DP)[/I]


http://wccftech.com/alleged-nvidia-maxwell-architectural-specifications-unveiled-project-denver-maxwell-refresh/
yossarian26 Ottobre 2013, 14:08 #247
Originariamente inviato da: AceGranger
questo non lo metto in dubbio, il mio è un sempice spaccato di quello che è la realta, che sia idealmente uguale o migliore non è che importi molto è... conta quello che ci puoi fare; non so tu, ma io compro una VGA in base a quello che posso fare non a quello che in un futuro non definito potro forse fare.



e in cosa sarebbe limitato ? visto che funziona interamente su GPU, la impegna al 100%, e sono calcoli matematici, perchè mai quello dovrebbe essere limitato, mentre la decrittazione di password, il mining o un calcolo di fluidodinamica non dovrebbero esserlo ?


limitato perché operazioni di raytracing, modellazione 3D o rendering, proprie dei programmi di CAD sono tipiche delle GPU e il fatto che impieghino al 100% la GPU significa solo che tramite CUDA o chi per esso riescono a sfruttare al meglio l'hardware a disposizione. In VRay una TMU svolge il compito per cui è stata progettata. Nelle applicazioni di tipo GPGPU più "estreme" (soli calcoli matematici) ad esempio, le TMU sono utilizzate per "mappare" le istruzioni; un'operazione di memory read si traduce in una di texture fetch e una di memory write in una di pixel filling che coinvolge le RBE. Per questo le tesla non hanno uscite video. Questo senza tener conto che per il rendering non serve la DP
<Masquerade>26 Ottobre 2013, 14:15 #248
ciao Apple, non è proprio così. Il GPU boost 2 limita la frequenza del chip in base alla temperatura e/o al consumo. Titan lavora con tensione di circa 1,162 V e la temperatura di "soglia" è impostata a 80°C di default. Con queste impostazioni, in game, nonostante ciò che dichiari nVidia, il chip non supera mai la frequenza di boost di 875/880 MHz. Per poterlo fare è necessario cambiare la velocità di rotazione della ventola (portandola all'85%) e si riesce ad arrivare ad una frequenza di boost di circa 995 MHz

Ciao yossarian

Guarda che è come dice Apple, te lo confermo.
ho posseduto due Titan ed ora una 780 GTX e queste schede vanno ben oltre il boost.
c'è un ulteriore boost che le manda oltre 876mhz.
se ci sono le condizioni giuste, la scheda mediamente sarà circa sui 1000mhz (non confequenza fissa al 100%).
è proprio così.
poi si se il carico di lavoro è leggero la scheda si downclocca... se supera gli 80 gradi idem, e se supera il limite di potenza sotto carico pesante uguale.
Free Gordon26 Ottobre 2013, 14:24 #249
Originariamente inviato da: yossarian
nVidia e AMD/ATi hanno un approccio diverso alla progettazione del layout del chip. Quello di nVidia tende al superscalare, quello di AMD al vettoriale. Ognuno ha vantaggi e svantaggi a seconda dell'applicazione che ci deve girare e di come è ottimizzata. L'approccio di nVidia, a livello di unità di calcolo è più efficiente per watt (molte energia la spende per la logica di controllo delle unità di calcolo) quello di AMD è più efficiente per unità di superficie (meno circuiti di controllo, feedback, ecc, ma molte più unità di calcolo per unità di superficie). Inoltre, questo porta anche a vantaggi e svantaggi sul piano dei blocchi e non solo delle singole unità funzionali. L'architettura di GK110 risulta più efficiente nelle operazioni geometriche e ha più texture unit. Quella di AMD va meglio con le operazioni matematiche quando c'è la possibilità di ottenere un elevato parallelismo (ad esempio molte applicazioni di tipo GPGPU), è nettamente superiore nelle operazioni di rendering e ha latenze inferiori negli accessi alle memorie e nelle operazioni che implicano trasferimento di dati dai registri. Quindi, limitare il confronto a dimensioni, watt e temperature e molto "riduttivo". C'è anche da aggiungere che a questo giro, nVidia ha fatto un eccellente lavoro nel contenere consumi e temperature (il limitatore di tensione, temperatura e consumo funziona veramente bene)


Beh certo.

Pensavo cmq che con GCN l'approccio di AMD fosse leggermente cambiato...ma effettivamente anche quì, se si fà un banale conto delle ALU si vede che son molte di più per superficie rispetto a Nvidia. La solita vecchia storia.
Però con con R580 ha reso... con R600 no... con la serie 4*** e 5*** ha reso abbastanza bene...
Per la serie 7 io avrei preferito vedere una cosa così:
Vliw4 per i giochi, con un gozzigliardo di sp e texture unit...e una roba simile a GCN per le professionali Fire....
.....Ma GCN probabilmente è strutturata così perchè parte del progetto Fusion, non è vero?

Cmq a me sembra un'altra ATI da quando è tornato Koduri. Menomale.


se Maxwell è un'architettura nuova, la transizione da Kepler avverrà ancora a 28 nm e solo poi si passerà ai 20 con la nuova architettura già collaudata.


Ok.



no, non è più in vantaggio. Entrambe hanno avuto modo di collaudare bene i 28 nm e sono pronte a passare ai 20


Hmm...male per AMD, o sbaglio?



si, un'idea ce l'ho ma, al momento, preferisco tenermela. Comunque non credo sia questione di driver


Dimmela in PVT..!!!
Non lo dico a nessuno!!!!!!



si, suppongo che l'approccio per le RBE sia quello utilizzato per hawaii a livello di operazioni di blending.


Ti devo fare una domanda sull'eSRAM......
yossarian26 Ottobre 2013, 14:28 #250
Originariamente inviato da: <
Ciao yossarian

Guarda che è come dice Apple, te lo confermo.
ho posseduto due Titan ed ora una 780 GTX e queste schede vanno ben oltre il boost.
c'è un ulteriore boost che le manda oltre 876mhz.
se ci sono le condizioni giuste, la scheda mediamente sarà circa sui 1000mhz (non confequenza fissa al 100%).
è proprio così.
poi si se il carico di lavoro è leggero la scheda si downclocca... se supera gli 80 gradi idem, e se supera il limite di potenza sotto carico pesante uguale.

qui c'è un test su titan fatto da hardocp con frequenze rilevate in game.

http://www.hardocp.com/article/2013...ew#.Umu0IHAYzfU


questa è un'altra review da cui risulta che un boost superiore ad 1 GHz si può raggiungere con un leggero overvolt

http://www.digitalversus.com/graphi...15386/test.html

ora c'è da capire se quella di cui parlate è una frequenza stabile di funzionamento in caso di pieno carico o di picchi più o meno istantanei di frequenza perché, nel secondo caso, fa veramente poco testo a livello di calore e consumi

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^