Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Samsung Galaxy S25 Edge: il top di gamma ultrasottile e leggerissimo. La recensione
Samsung Galaxy S25 Edge: il top di gamma ultrasottile e leggerissimo. La recensione
Abbiamo provato il nuovo Galaxy S25 Edge, uno smartphone unico per il suo spessore di soli 5,8 mm e un peso super piuma. Parliamo di un device che ha pro e contro, ma sicuramente si differenzia dalla massa per la sua portabilità, ma non senza qualche compromesso. Ecco la nostra prova completa.
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
Pensato per il professionista sempre in movimento, HP Elitebook Ultra G1i 14 abbina una piattaforma Intel Core Ultra 7 ad una costruzione robusta, riuscendo a mantenere un peso contenuto e una facile trasportabilità. Ottime prestazioni per gli ambiti di produttività personale con un'autonomia lontano dalla presa di corrente che permette di lavorare per tutta la giornata
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 21-10-2002, 21:40   #61
psychok9
Senior Member
 
L'Avatar di psychok9
 
Iscritto dal: Jul 1999
Città: Palermo
Messaggi: 7332
;-)

Ha incrementi lievi perché è CPU LIMITED e poi sai bene che lo stesso 3DMark è molto cpu dipendente...
Se infatti vai a fare un test con FSAA (l'unico modo di renderlo + pesante) e a risoluzioni esasperate vedi che non batte la GF4 4600... ma la STRABATTE!
psychok9 è offline   Rispondi citando il messaggio o parte di esso
Old 21-10-2002, 22:00   #62
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da psychok9
[b]LOL... stiamo perdendo la testa
"...per cui la risoluzione maggiore, l'antialiasing, il filtro anisotropico più tutta una serie di effetti grafici sono ormai divenuti indispensabili"
Scherziamo?!Ci passi che sono dei bei effetti, ma mica mi cambiano la vita o il divertimento che ho giocando con quel determinato gioco?! Possiamo divertirci anche giocando a 800x600x16!
Sarà, ma dopo aver visto MotoGP, sullo stesso hardware, prima su una GeForce 2MX e dopo su una GF4 Ti4200, posso dire che "il mondo è cambiato". Non c'è paragone. Il dettaglio grafico è cambiato così tanto a livello qualitativo da farlo sembrare un altro gioco.

Certamente ci si può dirvertire ugualmente anche su un hardware più modesto, ma la percezione del realismo è diversa...

E' questo ciò a cui mi riferivo...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 21-10-2002, 22:28   #63
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Re: RE to cdimauro e Erpazzo

Quote:
Originariamente inviato da Wing_Zero
[b]Innanzitutto se leggete bene il mio post vedrete che ho affermato che la 9700 e' superiore la 4600 solamente che mi spetavo un incremento superore come avevo gia' specificato:
Il tuo post l'ho letto benissimo (prima di scrivere una replica così pesante leggo sempre il messaggio diverse volte), e nel giro di una riga hai asserito due cose diverse. Infatti prima della frase che hai riportato qui sopra, hai scritto che "cmq la 9700 e' stata proprio unabella delusione! una scheda di nuova generazione(perche' cosi e') che va poco + di una geffo 4 ti 4600 ed in alcuni giochi addirittura sotto".

Insomma vedi di metterti d'accordo prima con te stesso. E soprattutto, prima vai controllarti bene i test che sono stati fatti sui siti più disparati, che dimostrano ESATTAMENTE il contrario di ciò che hai detto, sia prima che dopo...

[b]
Quote:
infatti pur non basandomi sul solo 3d mark(che e' attualmente il bench + affidabile)
E due. Dove sta scritto, scusa? Ripeto ancora una volta: i migliori benchmark sono I GIOCHI REALI, con i diversi engine disponibili a oggi, e non un benchmark sintetico (a meno che tu non ti diverta a giocare al 3DMark... )

[b]
Quote:
io mi aspettavo che la 9700 avesse degli incrementi prestazionali maggiori di quelle che ha adesso!
Per fortuna t'hanno già risposto in merito. Comunque, FATTI UN GIRO nei vari siti dove sono presenti recensioni sulla 9700 e poi ne riparliamo...

[b]
Quote:
io non so che l'nv 30 pachera' la 9700?? va bene!!!
Ah, finalmente qualcosa di sensato...

[b]
Quote:

ma voi come fate a sapere che le differenze "non saranno cosi' marcate" ???
In base a tutte le informazioni che sono state pubblicate in merito: sono mesi che stiamo dietro ad ogni singola notizia in cui viene svelato un particolare in precedenza sconosciuto. Personalmente, in base a queste informazioni, all'hardware uscito in precedenza e alla mia esperienza e conoscenza acquisita, ritengo che non ci saranno grosse differenze fra le due GPU.

Sono delle mie supposizioni e comunque aspetto l'arrivo dell'NV30 per confermarle o ricalibrarle...

Sicuramente non mi baso sul fascino di una marca per scrivere dei messaggi che la esaltano e gettano fango sulla concorrenza. Diciamo che preferisco spendere meglio il mio tempo libero...

[b]
Quote:
altra cosa: e' solamente un comportamento da ipocriti pensare che uno solo perhce' e' un ragazzo coem dite voi ne capisca di meno... E' ki vi adetto che un bambino di 14 ani non possa avere + esperienza di voi???(io personalmente sono maggiorenne e vaccinato!)
Io giudico una persona in base al contenuto dei messaggi che scrive: me ne frega poco e niente se dall'altra parte c'è un maggiorenne o un ragazzino. Prima di scrivere delle sciocchezze è bene documentarsi, tanto più se non si è superato lo scoglio dei 18 anni.

Se in quel messaggio che ho scritto parlavo di un ragazzino che deve tornare sui banchi di scuola, è perché è questa l'impressione che mi hai dato. Basta leggerlo. Sembra di tornare ai tempi delle medie quando facevamo le gare per vedere chi ce l'aveva più lungo.

Secondo te come avrei dovuto giudicare uno che, a parte quello che ha scritto, mi chiude un messaggio con "cmq adesso con l'nv 30 vedrete cosa significa "nuova generazione " di scheda video!!uaz ua z uaz!!!sono sicro che l'nv30 fara' fuoro anche l'r 350!!ciaoz!!"? Come un adulto o un ragazzino? Fa un po' tu...

[b]
Quote:
Cmq e' initule prolungare qeste polemiche! ssenno si rischia di arrivare alla solita catena di post per la serie ATI rulez o NVIDIA rulez! cosa che personalemte non sopporto!!CMQ aspettiamo e vediamo che hai ragione!!
Ecco perché t'ho scritto quel messaggio: sono ARCISTUFO di leggere le solite azzuffate fra sostenitori della nVdia e dell'ATI. I primi, in particolare, in questo periodo rompono particolarmente perché non vogliono accettare il fatto che la loro prediletta ha perso clamorosamente lo scettro di GPU più potente...

Insomma, è come quando Rocky dice "non fa male, non fa male": ma a chi lo vai a raccontare? Le randellate fanno male, eccome! Basta saperle incassare onestamente e dignitosamente.

Al prossimo round, quando arriverà l'NV30, vedremo se ci sarà una batosta o una vittoria ai punti (non del 3DMark! )...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 21-10-2002, 23:27   #64
Karandas
Senior Member
 
L'Avatar di Karandas
 
Iscritto dal: Oct 2001
Messaggi: 2563
un commento, qualcuno dice che bisogna avere un processorone per sfruttare un nv30 o una 9700, hmm, attivando antialias e anisitropo al massimo non si dovrebbe sfruttare tutto quello che vanza della scheda?(visto che son calcoli a sole spese della gpu?) ^_^
Karandas è offline   Rispondi citando il messaggio o parte di esso
Old 22-10-2002, 00:26   #65
ErPazzo74
Senior Member
 
L'Avatar di ErPazzo74
 
Iscritto dal: Sep 2001
Messaggi: 1521
Quote:
Originariamente inviato da cdimauro
....xtra cut........
L'X-Box ha il vantaggio che, grazie alla memoria unificata, non deve trasferire tutti i vertici e la display list in generale tramite il bus AGP alla scheda video. E questo è sicuramente una buona cosa, ma non rappresenta certo la panacea...
Guarda riguardo alle display list il vantaggio è nullo infatti le schede nvidia dispongono da qualche anno a questa parte di una cache (di - di 20 posizioni) in cui attraverso l'uso di una libreria disponibile agli Nvidia Developer risiedono sempre i vertici che servono x cui secondo Nvidia si può tranquillamente trascurare l'uso di display list.....
Magari si possono utilizzare per altre cose tipo sequenze di cambi di stato etc.....
Vantaggio enorme ma relativo invece è quello che per operazioni "rare" tipo lettura di una parte del buffer o renderizzazione in 1 buffer in memoria etc.....avere memoria unificata e non dover passare per l'AGP è un vantaggio ENORME e la differenza è mostruosa......
D'altro canto però queste operazioni sono lente appunto xché usate raramente e quindi nessuno si è interessato mai x renderle veloci........
__________________
Ciao a Tutti dal Pazzo!!!
Asus M4A79XTD EVO + X3 720 + ati 9200 + 4Gb OCZ 1800Mhz + WD BLACK 750Gb
ErPazzo74 è offline   Rispondi citando il messaggio o parte di esso
Old 22-10-2002, 00:42   #66
ErPazzo74
Senior Member
 
L'Avatar di ErPazzo74
 
Iscritto dal: Sep 2001
Messaggi: 1521
Re: RE to cdimauro e Erpazzo

Già cdimauro ti ha fatto notare molte incongruenze e ti ha risposto x cui aggiungo solamente che forse abbiamo visto test diversi!!!! Io ho visto test a 1280 o 1600 in cui la differenza è abbissale tra ATI e NVIDIA, 2/3 o + volte + veloce la 9700. Se poi tu ti compri una scheda video da 400€ come la 4600 x giocarci a 1024 (come io faccio ora col Ge Force MX ) solo per dire che così vai quanto la 9700, fai pure. Aggiungo che io stesso sono possessore di una Nvidia di cui non mi sono mai lamentato e di cui sono pienamente soddisfatto, i driver a volte mi hanno dato problemi ma mi è sempre bastato disintallare e attendere versioni migliori....Inoltre gli OTTIMI driver x linux mi legano attualmente esclusivamente alla Nvidia (con rammarico xché vorrei provare le ATI ).
Per cui io non sono 1 tifoso come tu invece dimostri dai tuoi post. Oltretutto non essendo io possessore di nessuna delle 2 schede in questione direi di essere super partes.
Quel che io scrivo in un post è solo l'espressione del mio pensiero e lo esprimo in base alla mia esperienza e in base alle mie conoscenze informatiche e di grafica 3D. Non avrò la palla di vetro ma ho sicuramente il diritto di esprimere quel che penso (e non di dire delle verità) e di vedere cosa ne pensano gli altri utenti del forum.
Ciao e alla prox...........
__________________
Ciao a Tutti dal Pazzo!!!
Asus M4A79XTD EVO + X3 720 + ati 9200 + 4Gb OCZ 1800Mhz + WD BLACK 750Gb
ErPazzo74 è offline   Rispondi citando il messaggio o parte di esso
Old 22-10-2002, 06:32   #67
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da Karandas
[b]un commento, qualcuno dice che bisogna avere un processorone per sfruttare un nv30 o una 9700, hmm, attivando antialias e anisitropo al massimo non si dovrebbe sfruttare tutto quello che vanza della scheda?(visto che son calcoli a sole spese della gpu?) ^_^
Mah, guarda, ogni giorno che passa sento parlare sempre più spesso di "cpu limited" nei test delle schede grafiche, come se si trattasse di una cosa grave...

Ebbene, penso che questo concetto sia difficilmente applicabile a chi, oggi, compra una scheda per giocarci, perché se su un Athlon XP 1600+, che costa una miseria, si riescono ancora a fare 150 fps invece di 300 a Quake 3 su una Ati 9700, o 100 fps invece di 200 a Unreal Tournament 2003, non penso che possa fregare di meno a qualcuno se poi gioca a 1600x1280 con AA4x, filtro anisotropico (per dire), e tutti gli effetti attivati...

Tra l'altro, giocando alle alte risoluzioni e con tutti gli annessi e connessi, il lavoro si sposta sempre di più dalla parte della scheda grafica. Infatti il calcolo dell'intelligenza artificiale dei personaggi e di tutta la geometria della scena che cambia, che è sempre a carico della CPU, mi pare rimanga invariato perché la quantità di poligoni da elaborare per ogni frame generato è sempre la stessa...

Insomma, i frame al secondo generati sono ben più che sufficienti per godersi un gioco, e alla fine non è proprio questo ciò che conta?

Con l'Amiga godevo con i giochi che arrivavano a 50 fps, e un po' storcevo il naso con quelli che andavano a 25 a causa del "tremolio" delle immagini, ma oggi la situazione mi pare LEGGERMENTE cambiata... eheheeh
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 22-10-2002, 06:42   #68
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da ErPazzo74
[b]
Guarda riguardo alle display list il vantaggio è nullo infatti le schede nvidia dispongono da qualche anno a questa parte di una cache (di - di 20 posizioni) in cui attraverso l'uso di una libreria disponibile agli Nvidia Developer risiedono sempre i vertici che servono x cui secondo Nvidia si può tranquillamente trascurare l'uso di display list.....
Magari si possono utilizzare per altre cose tipo sequenze di cambi di stato etc.....
Guarda, mi sembra alquanto strano, perché per ogni fotogramma elaborato la CPU genera una lista di vertici e una display list, che comunque dovranno essere "passate" alla scheda grafica tramite bus AGP, per poterli leggere ed elaborare la scena. Quel che dici mi sembra più un discorso di caching effettuato dopo aver letto (dalla memoria video) almeno una volta la display list.

Magari mi sbaglio, ma mi pare che la situazione reale sia quella che ho descritto...

[b]
Quote:
Vantaggio enorme ma relativo invece è quello che per operazioni "rare" tipo lettura di una parte del buffer o renderizzazione in 1 buffer in memoria etc.....avere memoria unificata e non dover passare per l'AGP è un vantaggio ENORME e la differenza è mostruosa......
Eh, l'Amiga ha fatto scuola un po' in tutti i settori... Prima il PC ha scoperto il Plug & Play e il bus PCI che configura le risorse delle varie schede (mai parlare di Autoconfigurazione: è una tecnologia brevettata dalla Commodore! ), adesso vediamo l'utilizzo di memoria unificata dove CPU, GPU, APU, e chi più ne ha più ne metta, si collegano alla memoria per attingere ai dati che gli servono...

[b]
Quote:
D'altro canto però queste operazioni sono lente appunto xché usate raramente e quindi nessuno si è interessato mai x renderle veloci........
Sul PC effettivamente è come dici tu: d'altra parte, con il continuo aumentare della memoria video s'è preferito caricare tutto in quest'ultima e cercare di effettuare tutte le elaborazioni in locale. E chi gli può dare torto? E' una soluzione ottimale e poco dispendiosa...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 22-10-2002, 08:17   #69
ErPazzo74
Senior Member
 
L'Avatar di ErPazzo74
 
Iscritto dal: Sep 2001
Messaggi: 1521
Forse non mi ricordo bene l'ho letto due mesi fà, comunque questo è il pezzo riguardante quel che ti dicevo:

"----------
Coding Tip
----------

When rendering using the hardware transform-and-lighting (TnL) pipeline or vertex-shaders, the GPU intermittently caches transformed and lit vertices. Storing these post-transform and lighting (post-TnL) vertices avoids recomputing the same values whenever a vertex is shared between multiple triangles and thus saves time. The post-TnL cache increases rendering performance by up to 2x.

Because the post-TnL cache is limited in size, taking maximum advantage of it requires rearranging triangle rendering-order. The easiest way to rearrange triangle-order for the post-TnL cache is to use the NVTriStrip library (.LIBs and source are available for free: http://developer.nvidia.com/view.asp...istrip_library).

If you are interested in exploring the performance characteristics of the post-TnL cache yourself, here are the details: The post-TnL cache is a strict First-In-First-Out buffer, and varies in size from effectively 10 (actual 16) vertices on GeForce 256, GeForce 2, and GeForce 4 MX chipsets to effectively 18 (actual 24) on GeForce 3 and GeForce 4 Ti chipsets. Non- indexed draw-calls cannot take advantage of the cache, as it is then impossible for the GPU to know which vertices are shared.

The following example explores how these restrictions translate into optimally rendering a 100x100 vertex mesh. The mesh needs to be submitted in a single draw-call to optimize batch- size. The draw-call must be with an indexed primitive-type (see above), either strips or lists -- the performance difference between strips and lists is negligible when taking advantage of the post-TnL cache. For illustration purposes, our example uses strips.

Rendering the mesh as 99 strips running along each row of triangles and stitching them together into a single strip with degenerate triangles only marginally takes advantage of the post-TnL cache. Only two vertices in each triangle hit the post-TnL cache (i.e., one vertex is transformed and lit per triangle).

Let's limit the length of each row-strip to at most 2*16 = 32 triangles. The mesh thus separates into ceil(99/16) = 7 columns of strips, each no longer than 32 triangles. Rendering all row-strips in column 0 first, from top to bottom and connected via degenerate triangles, allows an 18 entry post-TnL cache to store not only the last two vertices for each triangle but also the whole top row of vertices for each row-strip. Thus, only 1 vertex for every 2 triangles needs to be computed. For the vertices to be in just the right order such that the top row of vertices is in the post-TnL cache, the top-row of vertices of each column should be sent as a list of degenerate triangles."
__________________
Ciao a Tutti dal Pazzo!!!
Asus M4A79XTD EVO + X3 720 + ati 9200 + 4Gb OCZ 1800Mhz + WD BLACK 750Gb
ErPazzo74 è offline   Rispondi citando il messaggio o parte di esso
Old 22-10-2002, 13:14   #70
Gohansupersaiyan4
Senior Member
 
L'Avatar di Gohansupersaiyan4
 
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
Allora come detto tante volte dai programmatori se un gioco usa vertex e pixel shaders, non è la cpu a dover gestire la grafica...la prova di questo si ha guardando i giochi per xbox...milioni di poligoni al secondo, e cpu libera di dedicarsi ad altre cose...ora ho fatto l'esempio dell' xbox perchè ha tanti giochi dx8...per la risoluzione, in usa le HDTV sono molto diffuse, e tramite il cavo component supporta le risoluzioni delle HDTV , ci sono già dei giochi che le supportano...

Ciao !
Gohansupersaiyan4 è offline   Rispondi citando il messaggio o parte di esso
Old 22-10-2002, 21:55   #71
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da ErPazzo74
[b]Forse non mi ricordo bene l'ho letto due mesi fà, comunque questo è il pezzo riguardante quel che ti dicevo:

"----------
Coding Tip
----------

When rendering using the hardware transform-and-lighting (TnL) pipeline or vertex-shaders, the GPU intermittently caches transformed and lit vertices. Storing these post-transform and lighting (post-TnL) vertices avoids recomputing the same values whenever a vertex is shared between multiple triangles and thus saves time. The post-TnL cache increases rendering performance by up to 2x.

[...]
Infatti, se leggi attentamente noti che la GPU effettua il caching dei vertici, che comunque devono essere già caricati nella memoria video...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 22-10-2002, 22:15   #72
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da Gohansupersaiyan4
[b]Allora come detto tante volte dai programmatori se un gioco usa vertex e pixel shaders, non è la cpu a dover gestire la grafica...la prova di questo si ha guardando i giochi per xbox...milioni di poligoni al secondo, e cpu libera di dedicarsi ad altre cose...ora ho fatto l'esempio dell' xbox perchè ha tanti giochi dx8...
Guarda, non voglio sembrare il solito bastian contrario, ma questo discorso non regge. Se così fosse, sull'X-Box sarebbe sufficiente anche 486 DX 100 per gestire "tutto il resto". Perché se la GPU si occupa interamente della grafica e l'APU dell'audio, alla CPU rimane solo da calcolare l'intelligenza dei nemici e da comunicare alla GPU il nuovo punto di vista della scena e le nuove posizioni dei nemici. Che altro dovrebbe fare? Niente, visto che con la memoria unificata ogni unità specializzata trova già tutto a disposizione.

Nella realtà dei fatti, se prendi una GeForce4 4200, non puoi pretendere di far girare Unreal Tournament 2003 al massimo del dettaglio su una CPU qualunque. E la differenza, se è veramente tutto gestito dalla GPU, non dovrebbe esserci fra una CPU e un'altra, perché con le DirectX 8.0+ e la GPU "fac totum" tutto sarebbe a carico di quest'ultima, che lavorerebbe sempre e comunque nella sua velocissima (più di quella dell'X-Box) memoria video...

Sappiamo tutti che non è così e che la CPU, per forza di cose, svolge un ruolo non indifferente nella generazione della grafica. Non mi puoi venire a dire che l'X-Box è un discorso a sé stante, perché la CPU è un banalissimo (ormai) P3 a 700Mhz, e la GPU è anche più scarsa delle GF4 4200 (e con meno banda per la memoria video, per giunta condivisa con tutto il resto).

Insomma, per chiudere il discorso, non ci vuole molto a capire che le cose non stanno affatto come hai riportato: basta solo un po' di logica per arrivare alle conclusioni di cui sopra...

[b]
Quote:

per la risoluzione, in usa le HDTV sono molto diffuse, e tramite il cavo component supporta le risoluzioni delle HDTV , ci sono già dei giochi che le supportano...

Ciao !
Mah, a me non risulta che siano molto diffuse: e sono un americano... Le hanno soltanto le persone piene di soldi che non sanno come spenderli. L'HDTV è ancora lungi dal divenire una concreta piattaforma, anche perché manca ancora un supporto concreto, come un videoregistratore ad alta defizione, e dei prezzi abbordabili per aprire le porte del mercato di massa.

E' vero che è possibile collegarlo all'X-Box e ci sono dei giochi che supportano quelle risoluzioni, ma questo non richiede nessuno sforzo da parte delle software house, perché gestire delle risoluzioni diverse è tanto semplice quanto su un qualunque PC...

Resta il fatto che il target è pur sempre la normalissima TV NTSC o PAL, e i giochi sono pensati per funzionare bene su questa: il resto è grasso che cola...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2002, 20:11   #73
Gohansupersaiyan4
Senior Member
 
L'Avatar di Gohansupersaiyan4
 
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
Allora un Hdtv costa a partire da 650 dollari se t sembra tanto a me non lo sembra proprio.

Fatti un giro su un forum americano e lo constaterai tu stesso.

Allora naturalmente prendi come esempio ut2003 che non usa a pieno vertex e pixel shaders, mentre invece doom3 si basa su quelli...

Ora qui ci sono giochi su xbox che per come numero di poligoni un p3 733 non riuscirebbe mai a gestire, come fa ?

E come mai ha la cpu liberaper fare altre cose a detta dei programmatori , come ad esempio quelli di morrowind :

"And just FYI, the real limitation on the Xbox is NOT the CPU -- it's the memory. Only 64MB total, and that is shared system and graphics RAM. Yes, you can use the hard disk drive and create virtual memory -- we do it -- but you have to use that judiciously because it is very slow compared to system RAM. But that limitation certainly did not affect the lighting.

WormGod on taking advantage of the Nvidia hardware better: We take so much advantage of it that it filed for a restraining order on us. "


Da anandtech :

http://www.anandtech.com/showdoc.html?i=1561&p=14

" The Xbox host CPU however is the very well known Coppermine derived core which although has the unfortunate limitations of the x86 ISA, also carries the benefits of being a very well known architecture with much ISV support. The processor runs at a higher clock rate than the EE but we all know the meaninglessness of clock rate as a single performance metric. What is important to note is the 128KB L2 cache with a 256-bit data bus comes in quite handy in keeping the execution units of the processor busy and even more important is that the CPU does not have to handle any of the T&L calculations. If games are written properly the host CPU should only be used for AI, physics and other such calculations, leaving the GPU to handle all of the T&L and actual 3D rendering. Removing developers from the mindset of the host CPU handling T&L has apparently proved somewhat difficult but the better looking games are testament to the potential of the Xbox GPU when utilized properly. "


Ciao !
Gohansupersaiyan4 è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2002, 22:57   #74
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da Gohansupersaiyan4
[b]Allora un Hdtv costa a partire da 650 dollari se t sembra tanto a me non lo sembra proprio.

Fatti un giro su un forum americano e lo constaterai tu stesso.
Ma non puoi mica comprarti una tv con uno schermo tipo francobollo! HDTV = 1920x1080. Quindi serve un cinescopio di una certa grandezza per godere a pieno di quella risoluzione... Poi ci si può accontentare anche di uno più piccolo, ma questo è un altro discorso...

Tornando al supporto all'HDTV dell'X-Box, il suo uso non è certamente "gratuito": esattamente come accade per il PC, all'aumentare della risoluzione, diminuiscono le prestazioni. Infatti riporto un pezzo dell'articolo di cui mi hai spedito il link:

Quote:
"ll currently shipping Xbox games, as far as we know, are rendered internally at 640 x 480 and then sent to the Conexant chip which either interlaces the frames for output to a regular 480i or HD 1080i display or leaves the full resolution lines intact for every frame when being sent to a 480p or 720p output. This means that even for HDTV owners, 480p is the best you're going to get for now. Because of the sheer memory bandwidth requirements, 1080i doesn't make much sense for game developers. At 1920 x 1080 there are 153,600 more pixels (8% more) to be rendered than at 1600 x 1200 and we already know how memory bandwidth intensive 1600 x 1200 can be. Considering that the Xbox only has 6.4GB/s of memory bandwidth to work with, only in games with relatively small textures and low detail can we expect 1080i to be a reality. The much more desirable option is 720p. "
E se si usa una maggiore risoluzione, praticamente si può dire addio all'AntiAliasing...

[b]
Quote:

Allora naturalmente prendi come esempio ut2003 che non usa a pieno vertex e pixel shaders, mentre invece doom3 si basa su quelli...
A me risulta che li sfrutta abbastanza bene (basta vederlo con e senza shader attivati). E in un altro messaggio proprio tu hai scritto:

[b]
Quote:
Ut2003 usa vertex e pixel shaders, lo hanno più volte ribadito i programmatori, il motore è fatto appositamente per farlo
Quandi ti devi decidere: li sfrutta bene oppure no...

[b]
Quote:

Ora qui ci sono giochi su xbox che per come numero di poligoni un p3 733 non riuscirebbe mai a gestire, come fa ?
Vorrei saperlo anch'io visto che fra un'X-Box e un PC con GF4 4200 le differenze sono tutte a favore di quest'ultimo. Eppure tu sai benissimo che al variare della CPU, in base all'engine del gioco, variano le prestazioni. Se così non fosse, e te l'ho già scritto, basterebbe un 486 DX 100 per far girare i giochi attuali al loro massimo splendore. Così non è, e non può esserlo anche per l'X-Box.

[b]
Quote:

E come mai ha la cpu liberaper fare altre cose a detta dei programmatori , come ad esempio quelli di morrowind :

"And just FYI, the real limitation on the Xbox is NOT the CPU -- it's the memory. Only 64MB total, and that is shared system and graphics RAM. Yes, you can use the hard disk drive and create virtual memory -- we do it -- but you have to use that judiciously because it is very slow compared to system RAM. But that limitation certainly did not affect the lighting.

WormGod on taking advantage of the Nvidia hardware better: We take so much advantage of it that it filed for a restraining order on us. "
Qui non si parla di cpu libera, ma si rimarca che il fattore limitante è la quantità di memoria, non la CPU. Non c'è alcun accenno al carico sostenuto dalla CPU per la generazione delle scene...

[b]
Quote:
Da anandtech : http://www.anandtech.com/showdoc.html?i=1561&p=14

"What is important to note is the 128KB L2 cache with a 256-bit data bus comes in quite handy in keeping the execution units of the processor busy and even more important is that the CPU does not have to handle any of the T&L calculations. If games are written properly the host CPU should only be used for AI, physics and other such calculations, leaving the GPU to handle all of the T&L and actual 3D rendering. Removing developers from the mindset of the host CPU handling T&L has apparently proved somewhat difficult but the better looking games are testament to the potential of the Xbox GPU when utilized properly. "

Ciao !
Guarda che la parte di T&L di cui parla è relativa esclusivamente alla fase di rendering finale! La nuova scena, cioè, è già stata calcolata dalla CPU: sono state analizzate le azioni dell'utente e calcolati i movimenti degli oggetti (fisica) e le azioni dei nemici (AI). Forse questo ti sembrerà ben poca cosa, ma richiede uno sforzo non indifferente a carico delle CPU e non della GPU!

Immagina tutti i triangoli che cambiano di posizione, ruotano, ecc. ecc. Tutto deve essere calcolato dalla CPU, che poi passa i risultati alla GPU. Quest'ultima agisce solamente a livello di rendering: prende la scena finale, applica le trasformazioni (setup, clipping, correzione prospettica, ecc.) dei triangoli, i calcoli delle luci presenti, passa le informazioni agli eventuali vertex e poi pixel shader, applica le texture, e genera il frame buffer (diciamo che + o - è così ).

Forse dovresti documentarti meglio sulle varie fasi attinenti alla realizzazione di un videogioco: non è così semplice come sembra...

D'altra parte, ti sarai chiesto come mai esistono in circolazioni così tanti engine 3D che hanno un impatto sull'utilizzo della CPU, della banda di memoria, e della GPU così diverse fra loro. Se fosse così semplice come la fai tu, dovrebbero girare più o meno allo stesso modo su qualunque macchina dotata di GPU, e soprattutto la CPU potrebbe passare quasi tutto il tempo a girarsi i pollici, ma non è assolutamente così!

Ripeto per l'n-esima volta: documentati. E vedrai che la realtà è alquanto diversa da come l'hai dipinta...

Saluti
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2002, 23:51   #75
Gohansupersaiyan4
Senior Member
 
L'Avatar di Gohansupersaiyan4
 
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
Allora la perdita di prestazioni non si ha usando la 480p perchè il segnale esce sempre il 640 x 480 non interlacciati e poi vengono interlacciati i meno a secondo del televisore, punto primo.

Aumentando la risoluzione non aumenta il numero di poligoni e stai sicuro che se il gioco usa una risoluzione più alta sarà ottimizzato per farlo...

Gli HDTv hai detto non sono diffusi e costano tanto, non è vero ti ho dimostrato il contrario , e sono parecchio diffusi invece...

punto terzo il tuo discorso non è supportato dai fatti, il mio si.

Quello che dico non è giusto ? Allora panzer gragon oorta non esiste ?

Come mai il programmatore di Halo2 dice che avendo la cpu libera può usarla per avere ottime gestioni dei personaggi ?

Ora Halo 2 ha una grafica eccezzionale ed un gestione dei personaggi anche eccezzionale, mentre con il tuo discorso sembra che una cosa debba escludere l'altra, mentre così non è...

Riguardo ut2003 lo stesso programmatore ha detto prima che il gioco li usava per tutto, poi ha detto dopo che non li usa in modo massivo, mentre son sicuro che doom3 li usa molto di più...

I giochi per xbox che sfruttano vertex e pixel shaders
muovono un numero di poligoni che se il tuo discorso fosse corretto non potrebbero muovere, allora come fanno ?

Guarda qui :http://www.nextgame.it/Immagini/sega/panzerdragoonorta/panzerdragoonorta_preview20020702_xbox0.jpg


Ciao !
Gohansupersaiyan4 è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2002, 23:54   #76
Gohansupersaiyan4
Senior Member
 
L'Avatar di Gohansupersaiyan4
 
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
Cioè continui a insitere con la storia del processore ma non ho bisogno di dimostrare che ho ragione, perchè basta guardare i giochi per xbox che confermano quello che dico...


Ciao !
Gohansupersaiyan4 è offline   Rispondi citando il messaggio o parte di esso
Old 23-10-2002, 23:57   #77
Gohansupersaiyan4
Senior Member
 
L'Avatar di Gohansupersaiyan4
 
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
Tra l'altro dove sarebbe il vantaggio della geforce4 nel Pc :

guarda qua :

"that the customized DirectX 8 version the Xbox is using is more advanced than the ones the Radeon 8500 and the Geforce4 use. For instant, Xbox's vertex shaders have 192 contant registers (96 for Radeon 8500 and Geforce4). Vertex shading programs on Xbox can be 136 instruction long (128 for Radeon 8500 and Geforce4)."

Poi :


"GSUK: Tell us about the Graphics Chip - is that still going to be the NV 25?

JA: Well what we've always called it officially is the NV2A. A lot of
people have called it the NV25, but nVidia told us to call it the 2A
instead and there are two reasons for that: one, the NV25 in the
event that nVidia wouldn't use that part would be a PC part and
it would be put in here. The second thing is the part that we have
in the box is not just a super clocked NV20 but it actually draws
some of the geometry features out of the NV30. So if you put a
label on it, it's really an NV27.5 or somewhere in that range in
terms of the family. But it doesn't really have an official name so
we're settling on the NV2A and calling it a day at that. As you
know we upped the CPU and downgraded the GPU recently but
we'll still have the three times performance we were shooting for.

http://www.google.it/search?q=cache:z9gUDN7cIw4C:extra.gamespot.co.uk/news/2001/01/9031.html+nv2a+specification&hl=it&ie=UTF-8
"

Poi, ancora analisi delle funzioni della Nv2a da parte di un programmatore :


Just answer these simple questions:


The NV2A supports signed stencil buffer additions. The NV-30 supports signed stencil buffer additions.

Does the GeForce4 support signed stencil buffer additions?

Yes or no?






Now, the NV2A supports Accuview, and 4Xs FSAA. Does the GeForce3 support either of these features?

Yes or no?




If the NV2A has features which are not supported in the GeForce3, but are in the GeForce4, does that make it above the GeForce3?

If the NV2A supports features not in the GeForce 4, but are in the NV-30, does that make it above the GeForce4?

Ciao !
Gohansupersaiyan4 è offline   Rispondi citando il messaggio o parte di esso
Old 24-10-2002, 00:06   #78
Gohansupersaiyan4
Senior Member
 
L'Avatar di Gohansupersaiyan4
 
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
Se la GPU si prende l'onere di effettaure la trasformazione dei vertici, l'illuminazione e il clipping ti assicuro che alla CPU non resta altro che tener in piedi il sistema operativo e dar vita all'intelligenza artificiale. Perchè scusa nell'X-Box cosa succede ? Tu pensi veramente che la CPU gestisca la grafica ? Ma dai, carica l'OS e gestisce le comunicazione tra i chip set e le periferiche, non certo la mole di grafica che fanno vedere i giochi x xbox..


Ciao !
Gohansupersaiyan4 è offline   Rispondi citando il messaggio o parte di esso
Old 24-10-2002, 06:43   #79
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da Gohansupersaiyan4
[b]Allora la perdita di prestazioni non si ha usando la 480p perchè il segnale esce sempre il 640 x 480 non interlacciati e poi vengono interlacciati i meno a secondo del televisore, punto primo.
Ma hai letto quanto è scritto in quell'articolo di Anandtech o hai fatto finta? C'è scritto chiaramente che tutti i giochi usano sì la 640x480 che poi vengono "scalati" alle risoluzioni dell'HDTV, e quindi senza perdita di prestazioni, ma anche di qualità, perché un conto è renderizzare a 640x480 ed effettuare lo scaling e tutt'altra cosa calcolare tutto a 1920x1080 e visualizzarlo così com'è).

Sarebbe possibile far passare direttamente il frame buffer (e quindi renderizzare alla risoluzione nativa dell'HDTV), ma non lo so si fa perché l'operazione richiederebbe una banda di memoria enorme rispetto alla 640x480...

C'è scritto proprio là sopra e più in particolare nel resto della pagina di Anand, vai pure controllare se vuoi...

[b]
Quote:

Aumentando la risoluzione non aumenta il numero di poligoni e stai sicuro che se il gioco usa una risoluzione più alta sarà ottimizzato per farlo...
Vedi sopra: non renderizza a 1920x1080, ma ci pensa il chip video a scalare l'output a quella risoluzione. Un po' come quando si guardano sull'uscita tv i film rippati in DivX a risoluzioni scarse, tipo a 512x384: vengono scalati alla risoluzione televisiva nativa, a 720x576, ma la qualità mica è la stessa della dimensione originale...

[b]
Quote:

Gli HDTv hai detto non sono diffusi e costano tanto, non è vero ti ho dimostrato il contrario , e sono parecchio diffusi invece...
Ok, diamolo per assodato.

[b]
Quote:

punto terzo il tuo discorso non è supportato dai fatti, il mio si.
Ma quali fatti, scusa? Ti ho DIMOSTRATO che non può essere come dici e continui ad insistere...

Non sai neppure come viene realizzato un engine 3D, tutte le fasi di cui ha bisogno e quali di queste pesano sul processore e quali sulla scheda video...

[b]
Quote:

Quello che dico non è giusto ? Allora panzer gragon oorta non esiste ?
Ma che cosa stai dicendo?!? Il fatto che un gioco generi così tanti poligoni al secondo non vuol che il sistema non è in grado di farlo: si deve spremere bene, impegnando come si deve tutte le risorse a disposizione, processore incluso.

Se è per questo la Sega dava il DreamCast in grado di renderizzare 3 milioni di poligoni al secondo, mentre alcuni degli ultimi giochi riescono a tirarne fuori ben 5...

E' un discorso di ottimizzazione e sfruttamento dell'hardware. Ma il punto della questione verte sull'occupazione della CPU, non sull'esistenza o meno di un gioco che genera 20 milioni di poligoni al secondo. Certo che può farlo, se spreme per bene ANCHE la cpu.

Non puoi portarmi ragionamenti che se non c'entrano col discorso originale solo per portare acqua al tuo mulino: un conto è parlare della possibilità di avere giochi con un mare di poligoni, e un'altra cosa è l'occupazione della CPU. Io ho detto che le due cose sono legate e che dipendono strettamente l'una dall'altra. Tu ancora non hai portato una prova che dimostri che invece non sono legate e che la CPU non è vincolante per la prima.

[b]
Quote:

Come mai il programmatore di Halo2 dice che avendo la cpu libera può usarla per avere ottime gestioni dei personaggi ?

Ora Halo 2 ha una grafica eccezzionale ed un gestione dei personaggi anche eccezzionale, mentre con il tuo discorso sembra che una cosa debba escludere l'altra, mentre così non è...Riguardo ut2003 lo stesso programmatore ha detto prima che il gioco li usava per tutto, poi ha detto dopo che non li usa in modo massivo, mentre son sicuro che doom3 li usa molto di più...

I giochi per xbox che sfruttano vertex e pixel shaders
muovono un numero di poligoni che se il tuo discorso fosse corretto non potrebbero muovere, allora come fanno ?

Guarda qui :http://www.nextgame.it/Immagini/sega...0702_xbox0.jpg


Ciao !
Infatti si parla dell'unità di T&L, e che finalmente i programmatori hanno imparato a spremerla per bene per ridurre il carico del lavoro che prima era ancora appannaggio della CPU...

Quel che tu non riesci a capire è che la fase di T&L è una cosa (la fase finale), e la generazione della scena finale da renderizzare è un'altra cosa (la fase iniziale). La prima (seconda fase) è, ormai, competenza della GPU, e la seconda (prima fase) però resta ancora a totale carico della CPU.

Quella più pesante è sicuramente la fase di T&L gestita dalla GPU, per cui il fatto che adesso sia a suo totale carico è una gran cosa, e nessuno lo mette in dubbio. Ma la prima fase richiede comunque un impegno di risorse notevole da parte della CPU. E più aumentano i poligoni da gestire, più diventa oneroso il loro calcolo da parte della CPU.

Quel che tu non conosci e quindi non riesci a capire bene è che queste due fasi sono distinte fra loro. Mi sicca dovertelo ripetere per l'n-esima volta: documentati su come vengono realizzati gli engine 3D e finalmente potrai capire il mio ragionamento.

Succo del discorso: Vertex e Pixel shader sono i benvenuti, ma la loro parte la svolgono nella fase di T&L e quindi nella GPU, non in quella della generazione della scena da renderizza e quindi nella CPU. I programmatori sono entusiasti del fatto che ciò sgrava la CPU ANCHE di questo compito, per cui è libera di fare altro, ma gli resta da generare la scena, che non è certo poca cosa. In confronto all'Emotion Engine del PS2 qui è il paradiso, perché con la PS2 l'EE deve occuparsi invece di TUTTO.

E' chiaro il discorso? Se hai ancora dei dubbi, informati, come ti ho già detto, e dopo ne possiamo anche riparlare...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 24-10-2002, 06:54   #80
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da Gohansupersaiyan4
[b]Cioè continui a insitere con la storia del processore ma non ho bisogno di dimostrare che ho ragione, perchè basta guardare i giochi per xbox che confermano quello che dico...

Ciao !
Quello che stai dicendo non sta né in cielo né in terra: come fai a dire che non hai bisogno di dimostrare quello che dici? Ma ti rendi conto di quello che ti scappa "dalla bocca"?

Per di più, per "dimostrare" che l'X-Box non usa la CPU mi vieni a dire che è sufficiente guardare i giochi che ci girano? Lo capisci che così non dimostri assolutamente niente, perché i discorsi non sono neppure attinenti?

Io ti propongo una soluzione definitiva alla nostra disputa: prendiamo una X-Box, dissaldiamo la pista che porta il clock al processore e lo colleghiamo ad un divisore di clock che lo riduce ad 1/8 (da 733 a 91Mhz) e poi vediamo a quanto girano i giochi.

Visto che il processore, secondo il tuo ragionamento, passa il tempo a girarsi i pollici, perché il calcolo della fisica e dell'IA posso assicurarti che porta via un quantità di tempo irrisoria se non si vanno a cambiare anche i vertici dei poligoni, i giochi dovrebbero girare esattamente come prima (parlo del gioco vero e proprio, non della fase di caricamento con annessi e connessi, che chiaramente risulterà più lenta).

Che ne dici, facciamo una prova? La X-Box alla fine la pagherà chi perderà la "sfida"...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Samsung Galaxy S25 Edge: il top di gamma ultrasottile e leggerissimo. La recensione Samsung Galaxy S25 Edge: il top di gamma ultraso...
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto HP Elitebook Ultra G1i 14 è il notebook c...
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Un triste giorno per l'industria videolu...
Il tuo mouse ti spia? La suite di gestio...
Proton presenta Lumo: l'assistente AI co...
Samsung Galaxy S26 Edge: più auto...
Escobar Inc.: una frode che porta il mar...
Apple e la smart home in arrivo? Nuovo H...
Anche Alfa Romeo lancia il suo incentivo...
Un braccialetto che ascolta e registra o...
OPPO Find X8 Ultra: il RE dei cameraphon...
DeepL sempre più potente: arrivan...
Addio a Shunsaku Tamiya, il papà ...
Il volontariato non può essere gr...
Baxi presenta le nuove pompe di calore a...
Solo 104€ per questo robot Lefant da 500...
AppleCare One è unico! 3 disposit...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 18:35.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1