Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Attenti a Poco F7: può essere il best buy del 2025. Recensione
Attenti a Poco F7: può essere il best buy del 2025. Recensione
Poco F7 5G, smartphone che punta molto sulle prestazioni grazie al processore Snapdragon 8s Gen 4 e a un display AMOLED da ben 6,83 pollici. La casa cinese mantiene la tradizione della serie F offrendo specifiche tecniche di alto livello a un prezzo competitivo, con una batteria generosissima da 6500 mAh e ricarica rapida a 90W che possono fare la differenza per gli utenti più esigenti.
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 11-02-2008, 10:11   #241
darios81
Senior Member
 
L'Avatar di darios81
 
Iscritto dal: Nov 2005
Città: Aci San Filippo - Trattative HWU: 30 - EBAY: oltre 50
Messaggi: 4413
Quote:
Originariamente inviato da johnp1983 Guarda i messaggi
Per favore... hai stancato,

tra l'altro Cod 4 è l'unico gioco che stando a quello scritto su tom's le prende dalla 8800gt\gts...

e gli altri bench? Li hai letti almeno?

Cmq ho i miei dubbi che a loro Cod 4 con una 8800gts g92 abbia dato solamente 40fps di media @ 1680*1050 senza filtri...

io quegli fps li faccio solo con 50 unità su schermo, AA4x, AF16x e chi più ne ha più ne metta.

Cmq sei libero di credere a quello che vuoi e libero di credere che io non ne capisca.
Satra' che hai impostato le texture in automatico su COD4
__________________
Ho concluso positivamente : Maglia18 , Poty , Luka , Sagomaccio , GiovanniCT , Edu , JeckoMP , topo.campestre , Lello , Tone8 , Kondalord ,ilMoro , Midia ,ngherappa , CagivaMito,Joopol , Alooa , Jimmy41 , Tony_Montana91...
Sono registrato : HWShop Catania (darios81) - Ebay ( darios81 -> 47 Feedback positivi ( 100%))
darios81 è offline   Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 10:26   #242
Iantikas
Senior Member
 
L'Avatar di Iantikas
 
Iscritto dal: May 2004
Città: Erchie
Messaggi: 6927
Quote:
Originariamente inviato da alkio85 Guarda i messaggi
perkè scusa ??? quel 2 da dove salta fuori ??
Gli stream proc vanno a 2,5 volte la cpu; difatti 650*2.5=1625Mhz
Ci sono 96 stream proc quindi al massimo -> 96*2.5*650 = 96 * 1625
Il "2" che hai aggiunto dove lo hai inventato ??
quando si fanno questo tipo d calcoli si misurano delle operazioni al secondo ke in linea terocia secondo le specifike la skeda puo compiere...può essere il texture fillrate o il pixel filrate o il filtraggio delle texture, etc...


...nel caso in questione quel due indica ke x ogni ciclo d clock la gpu può compiere due istruzioni (appunto una multiply e un add)...quindi moltipliki


96 (il numero d shader) * 2 (il numero d operazioni ke ogni shader può compiere x ogni ciclo d clock) * 1600 (il clock degli shader ....


...analogamente come x ati fai


64 (il numero d shader) * 5 (le operazioni ke ogni shader può fare in un ciclo d clock) * 775 (la frqeunza degli shader)...


...poi il discorso cmq è + ampio...in realtà x es. si è visto ke nella serie 8 la mul nn sempre è disponibile e x avere un valore + vicino al reale si dovrebbe moltiplicare x 1.5...in ogni caso anke su ATI cmq nn sempre, a causa del tipo d'arkitettura, è possibile ke all'interno d ogni shader tutte e 5 le unità siano in attività...con xò una tangibile differenza...nella serie 8 la mul nn sempe è disponibile x un limite interno alla'rkitettura xkè x esserlo sempre si dovrebbero verificare tutta una serie d calcoli ke è molto difficile si attuino in uno scenario reale d'utilizzo...x quanto riguarda invece R600/670 il lmite è dovuto al fatto ke l'arkitettura sia d tipo VLIW...in pratica x tenere tutti gli shader occupati il compilatore deve accorpare tante piccole istruzioni in un unica grande istruzione e all'interno d ogni shader le 5 istruzioni processate nn devono dipendere una dall'altra (e proprio da questo dipende la forte dipendenza dai driver) e quindi è difficile ke sempre tutti gli shader siano occupati ma è + probabile siano tutti ccupati in R600/670 piuttosto ke la mul sia sempre disponibile nella serie 8...


...alla fine cmq si è soliti usare x entrambi i massimi valori teorici (alcuni siti x nvidia forniscono anke il valore + tendente al reale moltiplicato x 1.5)...tenendo cmq presente ke si tratta d valori teorici ke rappresentano il max valore ke la gpu, in quel determinato frangente (sia esso il filtraggio texture o il pixel fillrate, etc), può raggiungere e quindi lasciano il tempo ke trovano (son un pò utili giusto x confrontare gpu a parità d arkitettura) ciò ke conta poi son le prestazioni in-game...


...ciao

Ultima modifica di Iantikas : 11-02-2008 alle 10:41.
Iantikas è offline   Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 10:41   #243
tailss
Senior Member
 
Iscritto dal: Oct 2005
Messaggi: 1700
Quote:
Originariamente inviato da darios81 Guarda i messaggi
la 3870x2 come dimostrato in un TEST , se non ha giochi che sn ottimizzati per due GPU , va uguale alla 3870.....

Inoltre ti dico una cosa : non per fare rimare male a qualcuno : ma se compri due 3870 e le metti in crossfire, ha piu potenza di una 3870x2 a minor prezzo ( per giunta sn la stessa cosa , per la 3870X2 sn due schede in una con un crossfire interno)...basta vedere consumi della scheda
Già, in effetti non capisco perché si dovrebbe acquistare un sistema crossfire con doppia gpu, che costa quanto un crossfire con doppia gpu, doppia ram, doppio bus, doppio hardware. Ho paura che il risultato sia migliore nel secondo caso.
Quello che mi chiedo invece è come andrà la 8800 gs in sli. Sarebbe una configurazione relativamente molto economica e, forse, anche discretamente performante. Insomma, potrebbe essere un must per chi vuole spendere il giusto e avere ottime prestazioni.
tailss è offline   Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 15:16   #244
Firedraw
Senior Member
 
Iscritto dal: Jun 2001
Città: Catania
Messaggi: 3774
Quote:
Originariamente inviato da tailss Guarda i messaggi
Già, in effetti non capisco perché si dovrebbe acquistare un sistema crossfire con doppia gpu, che costa quanto un crossfire con doppia gpu, doppia ram, doppio bus, doppio hardware. Ho paura che il risultato sia migliore nel secondo caso.
Quello che mi chiedo invece è come andrà la 8800 gs in sli. Sarebbe una configurazione relativamente molto economica e, forse, anche discretamente performante. Insomma, potrebbe essere un must per chi vuole spendere il giusto e avere ottime prestazioni.
Beh lo sli come tecnologia l'ho sempre disprezzato.... i produttori non son mica scemi.... e 2 schede da 150€ in sli di solito vanno più o meno come una scheda da 300€. Si magari guadagni qualcosina, ma hai un sistema che ti consuma di più e che per farlo andare richiede un ali di 130-150€ invece di uno da 80-100€... senza contare la mainboard che costa di più.

L'unico motivo per cui posso accettare l'esistenza dello sli, è il poter avere + o - le potenzialità della scheda di prossima generazione oggi, usando 2 schede top di fascia alta in sli, vedi 8800 ultra. Ma è un utilizzo ristretto a chi se lo può permettere e io non rientro in quella fascia. E anche se ci rientrassi, non so se lo farei cmq, sono un ambientalista
__________________
dfi dk lanparty p35, e8400@3,6 ghz, 8 gb di ram, hd4670 512 ddr. Nikon d3200, 50 1.8g, tokina 11-16.
Firedraw è offline   Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 15:38   #245
Mister Tarpone
 
Messaggi: n/a
quindi ho scritto giusto.... le nvidia possono compiere 2 operazioni per ciclo di clock...

quindi vengan fuori questi risultati:

8800GT: 112sp*2*1500 = 336000

8800GS TOP: 96sp*2*1600 = 307200

hd3870: 64sp*5*750 = 248000

hd3850: 64sp*5*670 = 214400



.... .... ................................... ..... .... .. .. . . . . .
  Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 15:42   #246
Mister Tarpone
 
Messaggi: n/a
ma allora praticamente le nvidia son superiori anche a livello di shader.. non solo come TMU...
  Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 16:06   #247
Mister Tarpone
 
Messaggi: n/a
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Dipende dall'applicativo e dall'ottimizzazione del driver, se lo shader AMD riesce a lavorare "a x5" è superiore, altrimenti diventa un quinto di sé stesso.

Altro limite dell'architettura è il filtraggio molto più lento che finisce per castrare il resto, e questo è il motivo per cui in ambito professionale le FireGL le danno alle Quadro per la prima volta da quando mi ricordo, perché hanno una forza bruta impressionante che viene imbrigliata dal filtraggio una volta che vengano inserite nell'ambito gaming...
scusa ratatosk, ma hai visto che valori vengono fuori calcolando per x5 gli shader di una 3800 e calcolando per x2 quelli di una nvidia 8800???

8800GS TOP: 96sp*2*1600 = 307200

hd3870: 64sp*5*750 = 248000

perchè dici che sarebbe superiore lo shader amd???

Ultima modifica di Mister Tarpone : 11-02-2008 alle 17:33.
  Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 17:19   #248
M3thos
Senior Member
 
L'Avatar di M3thos
 
Iscritto dal: Nov 2007
Città: -\\.//-
Messaggi: 825
ma vaxxanculo va avevo letto bnei bench GTS sopra GT mi ero dimenticato ke è uscita quella nuova da 512

per una attimo mi si era capovolto il mondo dell'informatica
M3thos è offline   Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 18:23   #249
Mister Tarpone
 
Messaggi: n/a
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Secondo me non ci va il *2 ma magari mi sbaglio :Z
ma allora mettiamoci un 1.5 nel mezzo... almeno siamo tutti d'accordo




boh..
  Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 18:30   #250
leoneazzurro
Senior Member
 
Iscritto dal: Jan 2003
Messaggi: 10395
Quote:
Originariamente inviato da sonnet Guarda i messaggi
appunto..9 giochi + di quelli che ha testato hwupgrade..
vediamo i risultati ananlizzando risultati a 1920 x1200 (ovvero quelli dove la gpu e' + stressata e si possono capire meglio le potenzialita' ):
1)Test Drive Unlimited:vantaggio di un 20% senza filtri, solo 10% senza filtri per la 8800gts
2)Supreme Commander:35% in piu grossomodo sia con che senza filtri per la 8800gts
3)Age of empires:5% sia con filtri che senza a favore della 8800gts
4)Oblivion :20% sia con filtri che senza a favore della 8800gts grossomodo
5)Stalker :30%per la 8800gts
6)WIC:5% a favore di ATI senza filtri 30%a favore della 8800gts con i filtri
7)UT3:25% con filtri,10%senza filtri a favore della 8800gts
8)Crysis:30% a favore della 8800gts senza filtri, 140% a favore di ati con filtri
9)COD4:5% con filtri 27% senza a favore di ati.

Facendo un po di addizioni e sottrazioni e dividendo tutto per 17 (stalker non c'e' come test senza filtri ) otteniamo come media...

5% medio a favore della 8800gts..
ammazza..che risultato eccezionale..e guardacaso i giochi in cui l;a 3870 batte la 8800gts sono quelli tra i + nuovi dei giochi presi in esame.
L'architettura ati come e' successo negli ultimi anni anche stavolta si rivelera' a mio avviso + longeva..poi l'anno prox tutti a dire le stesse cose che oggi dite della x1950,quando pero' nessuno dei soliti noti al tempo diceva cio'.
Ora se la 88000gts ha un vantaggio medio del 5% in questo test..quanto potrebbe aver avuto la 8800gs che ha FISICAMENTE il 25% in meno di rops,il 40% in meno di banda e il25% in meno di stream processor?Oltre alle frequenze minori?
E qui ancora a credere alle favole che la 8800gs possa addirittura essere superiore alla 3870.
Purtroppo molti qua come le capre vanno dietro a chi su questo forum viene solo a fare marketing pronvidia perche' pagato..
Quote:
Originariamente inviato da Mister Tarpone Guarda i messaggi
appunto... pensa quanto è inferiore l'architettura ati se una 192bit riesce tenere testa a le 2 3800

ps: e occhio al quntitativo di shader che l'architettura di nvidia è differente da quella di ati....
e, come disse qualcuno, le ati usano 320shader si.. ma son "fregnoni"
Ragazzi.. io avevo anche messo un'ammonizione "a prescindere" sul thread. Se volete veramente essere sospesi, continuate a beccarvi in questo modo.

Quote:
Originariamente inviato da fededevi Guarda i messaggi
Cmq a quanto pare quello che serve ad ati è piu capacità di calcolo, la banda passante non sembra essere un più un problema come qualche anno fa, si puo' occare la gpu e basta (cosa buona visto che di solito la gpu sale molto di più) che ne pensate?
L'architettura ATI ha bisogno di più potenza di texturing e di più sample per ciclo di clock nel calcolo dell'antialiasing. La capacità di calcolo è abbastanza adeguata.
__________________
PC Specialist Recoil 17 - 13900HX - 32 GB DDR5 5200 - Geforce RTX 4080 Mobile 12Gb 175W - 1 SSD Corsair Core XT MP600 2 TB NVMe - 1SSD Solidigm P41+ 2TB NVMe
leoneazzurro è offline   Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 18:41   #251
leoneazzurro
Senior Member
 
Iscritto dal: Jan 2003
Messaggi: 10395
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Secondo me non ci va il *2 ma magari mi sbaglio :Z

Che nel calcolo sono superiori lo dicono gli applicativi se confrontati ai giochi. Questo considerando una GS, una GTS è invece leggermente superiore alla stessa 3870, sempre in potenza grezza di shading
Il 2 va anche nelle ATI, in quanto ogni singolo SP è in grado di effettuare un Multiply-ADD per ciclo di clock, quindi 2 FLOPS.
In realtà ogni SP di G8X-G92 è in grado di effettuare sia un MAD che un MUL (3 FLOPS), anche se non è chiaro se ci siano limitazioni all'utilizzo del MUL e quali esse siano.
__________________
PC Specialist Recoil 17 - 13900HX - 32 GB DDR5 5200 - Geforce RTX 4080 Mobile 12Gb 175W - 1 SSD Corsair Core XT MP600 2 TB NVMe - 1SSD Solidigm P41+ 2TB NVMe

Ultima modifica di leoneazzurro : 11-02-2008 alle 18:58.
leoneazzurro è offline   Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 18:58   #252
Mister Tarpone
 
Messaggi: n/a
Quote:
Originariamente inviato da leoneazzurro Guarda i messaggi
Ragazzi.. io avevo anche messo un'ammonizione "a prescindere" sul thread. Se volete veramente essere sospesi, continuate a beccarvi in questo modo.
hai ragione scusaci !!!!
  Rispondi citando il messaggio o parte di esso
Old 11-02-2008, 21:33   #253
fededevi
Member
 
L'Avatar di fededevi
 
Iscritto dal: Feb 2008
Messaggi: 46
Quote:
Originariamente inviato da leoneazzurro Guarda i messaggi
L'architettura ATI ha bisogno di più potenza di texturing e di più sample per ciclo di clock nel calcolo dell'antialiasing. La capacità di calcolo è abbastanza adeguata.
Occando la GPU dovrebbe andare meglio no? La banda della memoria non sembra sfruttata completamente in ogni caso.
__________________
High Quality Freeware Games
fededevi è offline   Rispondi citando il messaggio o parte di esso
Old 12-02-2008, 18:09   #254
Futura12
Senior Member
 
L'Avatar di Futura12
 
Iscritto dal: Jan 2008
Città: Roma Eur
Messaggi: 11729
Quote:
Originariamente inviato da fededevi Guarda i messaggi
Occando la GPU dovrebbe andare meglio no? La banda della memoria non sembra sfruttata completamente in ogni caso.
infatti su tutte le G80/G92 sopratutto le prime non conviene overcloccare la Ram ma bensi mettersi sotto con la Gpu e Shader sono quelli che contano di più in questo caso con le memorie di questi chip sono fin troppo elevate...la banda di 60-100Gb/s è più che sufficiente a partire dal primo valore...
__________________
Intel Core i7 2600k @daily 4.4Ghz cooled by Mine II - AsRock Z68 Ex4 Gen3 - 16Gb G.Skill 1.6Ghz C8 - GV-R6950@70 2Gb 900/5000Mhz - EnermaxPro82+ 525w & CM690 - 4Tb Storage + 150Gb raid0 + Corsair ForceGT 120Gb - Asus VE276Q 27''
Futura12 è offline   Rispondi citando il messaggio o parte di esso
Old 17-02-2008, 18:02   #255
tailss
Senior Member
 
Iscritto dal: Oct 2005
Messaggi: 1700
Quote:
Originariamente inviato da Firedraw Guarda i messaggi
Beh lo sli come tecnologia l'ho sempre disprezzato.... i produttori non son mica scemi.... e 2 schede da 150€ in sli di solito vanno più o meno come una scheda da 300€. Si magari guadagni qualcosina, ma hai un sistema che ti consuma di più e che per farlo andare richiede un ali di 130-150€ invece di uno da 80-100€... senza contare la mainboard che costa di più.

L'unico motivo per cui posso accettare l'esistenza dello sli, è il poter avere + o - le potenzialità della scheda di prossima generazione oggi, usando 2 schede top di fascia alta in sli, vedi 8800 ultra. Ma è un utilizzo ristretto a chi se lo può permettere e io non rientro in quella fascia. E anche se ci rientrassi, non so se lo farei cmq, sono un ambientalista
L'unica incognita secondo me è il supporto ai titoli. Mi spiego meglio: dai vari benchmark alcuni titoli vanno assai di più in sli, altri un po' meno, quindi, teoricamente, rischieresti, avendo speso diciamo il doppio, di vedere un titolo che ami particolarmente, girare in maniera accettabile con un dettaglio solo di poco superiore alla singola scheda. Tutto ciò sarebbe molto frustrante considerando che la tecnologia Sli è derivata da 3DFX e che le obsolete Voodoo 2 in sli, all'epoca, andavano come una schioppettata con tutti i giochi o quasi... Forse sarà stato merito delle api Glide, progettate specificamente per quelle schede.
Io spererei che il problema di resa delle attuali Nvidia e Ati in Sli (o Crossfire) sia soltanto una questione di driver da ottimizzare, quindi risolvibile via software.
Mi chiedo se Hwupgrade abbia trattato nello specifico questo argomento e, in caso affermativo, abbia prospettato un qualche tipo di soluzione..
tailss è offline   Rispondi citando il messaggio o parte di esso
Old 17-02-2008, 18:48   #256
tailss
Senior Member
 
Iscritto dal: Oct 2005
Messaggi: 1700
Quote:
Originariamente inviato da Ratatosk Guarda i messaggi
Tipicamente se sei abituato a giocare il classico gioco da benchmark, cioè quelli che vengono usati nelle recensioni, puoi stare relativamente tranquillo che il supporto multi-GPU, pur con risultati alterni, ci sarà sempre, se giochi a The Sims difficilmente lo vedrai, ma dubito che ti serva a qualcosa, visto che i giochi più esosi sono proprio quelli da benchmark :>

Detto questo non penso farò mai un CF, ma per non rischiare ho preso una mobo PCIe 2.0 con due slot x16 e supporto al CF... non si sa mai...
Una questione ulteriore da considerare, quando si assembla un pc x giocare, parametro aggiuntivo alla multi Gpu, è anche il numero di core della Cpu. Ad esempio: quali potrebbero essere le performance di una configurazione Intel Core Quad (il 6600 attualmente si trova a prezzi umani) + 2 schede Sli?
Ovviamente essa avrebbe senso solo se i vari componenti dialogassero correttamente, venissero sfruttati regolarmente dai driver e dalle api sotto il sistema operativo, e tutto ciò presentasse un reale potenziamento delle prestazioni rispetto a configurazioni più classiche.
Sulle console di ultima generazione, infatti, il multi core funziona e rende bene, tuttavia non essendo esse dotate di un classico sistema operativo generalista come Windows Xp/Vista ma di una dashboard con il minimo indispensabile delle funzioni e ottimizzata per la singola piattaforma, alla fine non fanno testo (insomma, non ci sono grossi sprechi di calcolo dovuti a mancata implementazione di funzioni o a driver non ottimizzati, e il tutto fila più liscio anche con hardware non recentissimo).
Effettivamente sarebbe molto interessante leggere un bell'articolo sull'argomento Quad Core + Sli.
tailss è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Attenti a Poco F7: può essere il best buy del 2025. Recensione Attenti a Poco F7: può essere il best buy...
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
TSMC produrrà a 2 nm anche in Ari...
Tesla vuole Musk a tutti i costi: propos...
Spotify aumenta i prezzi: da 10,99 a 11,...
Prezzi folli su AliExpress con Choice Da...
IA ed etica: Fastweb+Vodafone fra le pri...
Pannelli solari nuovi o riciclati? Quest...
Instagram cambia le regole per i Live: n...
Windows 11 SE addio: Microsoft stabilisc...
Kali Linux più facile su macOS gr...
È la fine per le antenne 5G? Al l...
WhatsApp, una taglia da 1 milione di dol...
Sembrava spacciato, poi una bici elettri...
Apple Watch Series 1 diventa obsoleto: a...
ho. Mobile, upgrade a 250 GB senza sovra...
Reddit non avrà post a pagamento,...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 03:23.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1