Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Test ride con Gowow Ori: elettrico e off-road vanno incredibilmente d'accordo
Test ride con Gowow Ori: elettrico e off-road vanno incredibilmente d'accordo
Abbiamo provato per diversi giorni una new entry del mercato italiano, la Gowow Ori, una moto elettrica da off-road, omologata anche per la strada, che sfrutta una pendrive USB per cambiare radicalmente le sue prestazioni
Recensione OnePlus 15: potenza da vendere e batteria enorme dentro un nuovo design
Recensione OnePlus 15: potenza da vendere e batteria enorme dentro un nuovo design
OnePlus 15 nasce per alzare l'asticella delle prestazioni e del gaming mobile. Ma non solo, visto che integra un display LTPO 1,5K a 165 Hz, OxygenOS 16 con funzioni AI integrate e un comparto foto con tre moduli da 50 MP al posteriore. La batteria da 7.300 mAh con SUPERVOOC 120 W e AIRVOOC 50 W è la ciliegina sulla torta per uno smartphone che promette di offrire un'esperienza d'uso senza alcun compromesso
AMD Ryzen 5 7500X3D: la nuova CPU da gaming con 3D V-Cache per la fascia media
AMD Ryzen 5 7500X3D: la nuova CPU da gaming con 3D V-Cache per la fascia media
Vediamo come si comporta il Ryzen 5 7500X3D, nuovo processore di casa AMD che fonde 6 core Zen 4 con la tecnologia 3D V-Cache, particolarmente utile in scenari come il gaming. Annunciato a un prezzo di listino di 279€, il nuovo arrivato sarà in grado di diventare un riferimento per i sistemi budget? Ecco cosa ne pensiamo.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 12-07-2008, 12:20   #81
Lithium_2.0
Senior Member
 
L'Avatar di Lithium_2.0
 
Iscritto dal: May 2008
Città: PN
Messaggi: 2131
Quote:
Originariamente inviato da gianni1879 Guarda i messaggi
Sono gli unici ad averla (almeno tra i negozi affiliati a trovaprezzi) e ci speculano sopra, il prezzo ufficiale se hai letto l'articolo si aggirerà sui 320 euri, ma secondo me si troverà facilmente anche a meno.

Comunque, come rapporto prezzo/prestazioni è evidente come "a sto giro" è mooolto meglio ATi, e neanche di poco.

Ciao
Lithium_2.0 è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 14:27   #82
Ilbaama
Senior Member
 
Iscritto dal: Nov 2005
Messaggi: 376
Quote:
Originariamente inviato da Fgne Guarda i messaggi
[...]quindi mi verrebbe da pensare che se mi compro due GTX260 e le metto in SLI dovrei riuscire a giocare più che fluidamente con Crysis (1680x1050 very high appunto),quindi 40 fps almeno li deve fare,30 mi sembrano pochini. Boh...
Ma Crysis non è un gioco, è un benchmark
ed è al pari di 3DMark200X quindi non bisogna farci affidamento.
Ilbaama è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 15:10   #83
DukeIT
Senior Member
 
Iscritto dal: Dec 2001
Messaggi: 8488
La differenza tra i prezzi minimi delle 260 e le 4870 standard è di 70 euro, se le Zontac AMP costeranno, come sembra, 30 euro in più, la differenza sarà di 100 euro per un miglioramento prestazionale minimo: 100 euro su 215 (prezzo minimo delle 4870) mi sembrano tantini, quasi il 50% in più...
Ovviamente poi sono assurdi i 70 euro di differenza tra le 260 standard e le 4870 visto che le prime vanno addirittura più lente.
DukeIT è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 15:34   #84
Iantikas
Senior Member
 
L'Avatar di Iantikas
 
Iscritto dal: May 2004
Città: Erchie
Messaggi: 6927
complimenti x l'articolo...finalmente avete messi i performancerating...spero diventi la norma in tutte le rece...



...x lo stato attuale certamente meglio la HD4870 rispetto alla GTX260...xò a mio modo di vedere, se uno nn ha un bisogno impellente, meglio attendere le versioni ad 1gb e nn reference della HD4870, R700 e GT200 a 55nm...


...ciao
Iantikas è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 16:17   #85
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Ginger79 Guarda i messaggi
Qui si dimostra che una comune GTX260 (con un piccolo OC) è sempre superiore (in alcuni casi di molto) alla HD 4870.
Se pensiamo che in media le HD4870 si OC molto meno in quanto già tirate di fabbrica... mentre le GTX260 salgono anche di altri 100Mhz rispetto a questa AMP è chiara la superiorità di Nvidia su tutti i fronti (tranne il prezzo).

In questi giorni mi sto godendo Devil May Cry 4 (giocone!) ed osservando i grafici noto una differenza ABISSALE tra le 2 schede: 57fps per la 4870 e 80fps per la GTX260 AMP.

A questo punto comincio a ricredermi e a tornare sui miei passi nonchè a fare una riflessione: perchè mai Nvidia non ha proposto queste GT200 a frequenze superiori visto che ci arrivano senza sforzi e scalano decisamente meglio della concorrenza??

Da questa recensioni si evince che una semplice GTX280 portata ad esempio a 700/1500/2300 (Ultra280 ??) potrebbe essere più performante di un Crossfire di 4870 (dunque anche della futura 4870 X2) senza far fatica.

Se i prezzi per Nvidia dovessero scendere di altri 30-40€ sarebbero ancora dolori per AMD perchè in quanto a prestazioni non c'è storia.

Ora so che spenderei volentieri 250€ per una GTX260 (che potrei portare a 700/1500/2200 senza problemi) per avere quasi le stesse prestazioni di una GTX280 reference.
http://www.youtube.com/watch?v=i9nXEXWlQ5Q
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 16:46   #86
Evangelion01
Senior Member
 
L'Avatar di Evangelion01
 
Iscritto dal: Jun 2006
Città: Cagliari
Messaggi: 7468
Quote:
Originariamente inviato da yossarian Guarda i messaggi

Bella questa... Ovviamento quoto.
__________________
Lian Li Dynamic Evo - Corsair RM 850W Shift - Noctua Nh-D15 Chromax - Ryzen 5800X3D - MSI B550 Gaming plus - Pny ARGB 4090 OC - 2x16gb Kingstone Hyper X Fury 3200 - Sabrent Rocket NVME 1TB + Silicon Power Ud90 2TB - Samsung G8 Oled 34'
Evangelion01 è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 17:46   #87
poaret
Senior Member
 
L'Avatar di poaret
 
Iscritto dal: Jan 2005
Messaggi: 408
soliti fanboy del caxxo che non si arrendono neanche all'evidenza . La HD4870 con le sue gddr5 riesce a salire abbastanza tranquillamente di altri 1000 MHz..adesso cerco il link..
Scusa Ginger non sei un fanboy..?...allora sei un prezzolato NVidia..dopo certi toni, sai, non si può dire altro.
poaret è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 17:48   #88
costa@73
Senior Member
 
Iscritto dal: Nov 2007
Messaggi: 463
In questi giorni mi sto godendo Devil May Cry 4 (giocone!) ed osservando i grafici noto una differenza ABISSALE tra le 2 schede: 57fps per la 4870 e 80fps per la GTX260 AMP.

Ma guarda un po' il caso..
si vede all 'inizio dell' installazione che Nvidia ha sganciato per avere una ottimizzazione del codice, o meglio ha pagato come fa' di solito(il caso assassin's creed la dice lunga ), per far andare peggio la concorrenza.
ecco che i conti tornano...

Ps: io me lo sto godendo a 1980, con tutti i dettagli al massimo e in DX 10, con la 3870!
costa@73 è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 18:00   #89
Xilema
Senior Member
 
L'Avatar di Xilema
 
Iscritto dal: Dec 2000
Città: Provincia de Venessia
Messaggi: 24006
Quote:
Originariamente inviato da Marko91 Guarda i messaggi
ATI è da mesi che supporta le DirectX10.1, che permettono di applicare comodamente l'antialising anche agli engine defereed rendering come l'UE3 /Stalker etc e con grossi incrementi prestazionali (>30%) con gli engine "tradizionali". E' Epic che dovrebbe svegliarsi... ma dubito che lo farà perchè i suoi giochi sono sponsorizzati da Nvidia, come la maggiorparte dei giochi in circolazione. Se i giochi attuali supportassero tutti le DirectX10.1 per Nvidia sarebbero cavoli amari, in quanto con l'AA applicato la schede ATI volerebbero (vedere AC Dx10.1, dove una HD4850 batte tranquillamente una GTX260 e una HD4870 la GTX280). Sembra che comunque ATI si sia accordata sia con EA Games che con Blizzard perchè i loro prossimi giochi siano DirectX10.1.

Il fatto è che nessun videogiocatore serio preferirebbe Vista ad XP ora come ora, quindi le DX10.1 sono solo aria fritta, e resteranno tale per ancora molti mesi...
Ora come ora alla gente frega delle DX9 e XP, e dell' AA su questo sistema, e nVidia checchè se ne dica lo permette... mentre ATI no.
L' intelligenza sta anche nel fornire non la feature teorica più figa, ma quella che serve agli utenti in quel momento...
__________________
ALI: Seasonic VERTEX GX 850W * MOBO: Gigabyte B760 Aorus Master * CPU: Intel Core i7 13700KF * GPU: Gigabyte GeForce RTX 4080 Eagle OC * RAM: 32 GB DDR 4 G. Skill Aegis 3200 CL16 * HD: SSD M.2 Samsung 980 PRO 1 TB + Crucial MX500 4 TB * OS: Windows 11 Home 64 bit
Xilema è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 18:11   #90
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Xilema Guarda i messaggi
Il fatto è che nessun videogiocatore serio preferirebbe Vista ad XP ora come ora, quindi le DX10.1 sono solo aria fritta, e resteranno tale per ancora molti mesi...
Ora come ora alla gente frega delle DX9 e XP, e dell' AA su questo sistema, e nVidia checchè se ne dica lo permette... mentre ATI no.
L' intelligenza sta anche nel fornire non la feature teorica più figa, ma quella che serve agli utenti in quel momento...
conosci una sola ragione tecnica per cui l'AA su unreal engine non è attivabile con gpu ATi?
Te lo chiedo perchè io non ne conosco e sospetto qualcosa di analogo a quanto visto in passato con l'impossibilità, presunta, di attivare MSAA e HDR su alcuni engine, nel periodo in cui le gpu nVidia (serie 7) non supportavano le due feature insieme

Cerchiamo di capire se si tratta di intelligenza o di furbizia
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 18:22   #91
Iantikas
Senior Member
 
L'Avatar di Iantikas
 
Iscritto dal: May 2004
Città: Erchie
Messaggi: 6927
a parte ke è già qualke release di driver ke anke con ATI è possibile attivare l'AA in gioki con UE3 come Bioshock e UT3...

...inoltre x es. in CoD4 ATI permette di attivare il MSAA fino ad 8x...mentre nvidia nn va oltre il 4x...

...cmq se ci son gioki in cui una lo permette e l'altra no nn'è una limitazione della gpu ma giusto lato driver...


...ciao


p.s.: yoss se ho detto castronerie aiutami tu
Iantikas è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 18:26   #92
poaret
Senior Member
 
L'Avatar di poaret
 
Iscritto dal: Jan 2005
Messaggi: 408
quindi adesso oltre a spendere di più a pari prestazioni mi ritrovo un sistema che un domani prossimo (gates permettendo) non mi farà girare oltre le DX11(ovviamente vale anche per ATI)anche le "vecchie" DX10.1 che saranno adottate da tanti giochi a venire. Certo le DX10 oggi bastano..più o meno..ma perchè io oggi dovrei comprare una scheda sovrapprezzata che ha meno longevità di quella della concorrenza.Oltretutto c'è il discorso CF/SLI che posso fare sul mio sistema Intel :quegli intelligentoni la loro licenza proprietaria dello SLI se la possono infilare sai dove..?Perchè dovrei passare a chipset Nvidia o addirittura spendere altri soldi per rimanere con CPU Intel
poaret è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 18:52   #93
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Iantikas Guarda i messaggi
a parte ke è già qualke release di driver ke anke con ATI è possibile attivare l'AA in gioki con UE3 come Bioshock e UT3...

...inoltre x es. in CoD4 ATI permette di attivare il MSAA fino ad 8x...mentre nvidia nn va oltre il 4x...

...cmq se ci son gioki in cui una lo permette e l'altra no nn'è una limitazione della gpu ma giusto lato driver...


...ciao


p.s.: yoss se ho detto castronerie aiutami tu
il mio dubbio nasce da una semplice considerazione: si parla della difficoltà nell'implementare una forma di antialiasing con engine che fanno uso di deferred rendering. Sulle gpu nVidia si è arrangiato una sorta di antialiasing "casareccio" che forza un'illuminazione di tipo non dinamico. Questo mentre le dx10.1 danno la possibilità ai pixel shader di accedere a più render target proprio per fare deferred rendering. Questo senza tener conto della possibilità di utilizzare un cube map array per l'illuminazione dinamica.
La domanda è: per quale motivo si è forzato un AA su un HW che non lo supporta nativamente se non con pessimi risultati e non si scrive una path che ne permetta la corretta implementazione su HW che supporterebbe nativamente AA con deferred rendering?

Ultima modifica di yossarian : 12-07-2008 alle 18:55.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 20:27   #94
magnusll
Senior Member
 
Iscritto dal: Jan 2008
Messaggi: 851
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Stralol... ma cosa sei andato a ripescare!!! Anni 80 che piu' 80 non si puo' !!

Le giacchette che indossano sono uno spettacolo... in un commento dicono "puoi beccarti l' AIDS solo a guardarlo, questo video"

Comunque concordo in pieno con la sostanza del commento
magnusll è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 23:22   #95
Xilema
Senior Member
 
L'Avatar di Xilema
 
Iscritto dal: Dec 2000
Città: Provincia de Venessia
Messaggi: 24006
Quote:
Originariamente inviato da yossarian Guarda i messaggi
conosci una sola ragione tecnica per cui l'AA su unreal engine non è attivabile con gpu ATi?
Te lo chiedo perchè io non ne conosco e sospetto qualcosa di analogo a quanto visto in passato con l'impossibilità, presunta, di attivare MSAA e HDR su alcuni engine, nel periodo in cui le gpu nVidia (serie 7) non supportavano le due feature insieme

Cerchiamo di capire se si tratta di intelligenza o di furbizia

nVidia ci ha messo un pezzo per far attivare l' AA con giochi che usavano HDR.
Non ci vedo storie di controspionaggio, imho sono semplici limiti di archiettura o di driver...
__________________
ALI: Seasonic VERTEX GX 850W * MOBO: Gigabyte B760 Aorus Master * CPU: Intel Core i7 13700KF * GPU: Gigabyte GeForce RTX 4080 Eagle OC * RAM: 32 GB DDR 4 G. Skill Aegis 3200 CL16 * HD: SSD M.2 Samsung 980 PRO 1 TB + Crucial MX500 4 TB * OS: Windows 11 Home 64 bit
Xilema è offline   Rispondi citando il messaggio o parte di esso
Old 12-07-2008, 23:24   #96
Xilema
Senior Member
 
L'Avatar di Xilema
 
Iscritto dal: Dec 2000
Città: Provincia de Venessia
Messaggi: 24006
Quote:
Originariamente inviato da Iantikas Guarda i messaggi
a parte ke è già qualke release di driver ke anke con ATI è possibile attivare l'AA in gioki con UE3 come Bioshock e UT3...

...inoltre x es. in CoD4 ATI permette di attivare il MSAA fino ad 8x...mentre nvidia nn va oltre il 4x...

...cmq se ci son gioki in cui una lo permette e l'altra no nn'è una limitazione della gpu ma giusto lato driver...


...ciao


p.s.: yoss se ho detto castronerie aiutami tu

I driver dicono di permettere questa cosa, ma moltissime persone hanno detto di non riuscire ancora ad attivare l' AA con le schede ATI e i driver più recenti... per i giochi che usano l' Unreal engine 3.
Se avessi la certezza che l' AA funzionasse... sari felice di ritornare ad ATI in un prossimo futuro... con questi prezzi e queste prestazoni...
__________________
ALI: Seasonic VERTEX GX 850W * MOBO: Gigabyte B760 Aorus Master * CPU: Intel Core i7 13700KF * GPU: Gigabyte GeForce RTX 4080 Eagle OC * RAM: 32 GB DDR 4 G. Skill Aegis 3200 CL16 * HD: SSD M.2 Samsung 980 PRO 1 TB + Crucial MX500 4 TB * OS: Windows 11 Home 64 bit
Xilema è offline   Rispondi citando il messaggio o parte di esso
Old 13-07-2008, 03:13   #97
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Xilema Guarda i messaggi
nVidia ci ha messo un pezzo per far attivare l' AA con giochi che usavano HDR.
Non ci vedo storie di controspionaggio, imho sono semplici limiti di archiettura o di driver...
l'UE3 utilizza deferred rendering-> RV770 è dx10.1-> le dx10.1 prevedono l'utilizzo di AA+deferred rendering (MRT per lo shader core)-> i chip nVidia non sono dx10.1-> i chip nVidia non supportano il MRT per lo shader core-> i chip NV non sono in grado di fare AA+deferred rendering in maniera corretta

l'UE3 non è dx10 ma è stata introdotta una path dx che permette ai chip NV di applicare l'AA (in maniera non corretta e trasformando in statiche le ombre dinamiche); allo stesso modo, non è stata implementata una path dx10.1 che permetterebbe ai chip ATi di fare (in maniera corretta) deferred rendering con AA.

In effetti, dei limiti di architettura ci sono
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 13-07-2008, 11:39   #98
rollocarmelo
Member
 
Iscritto dal: Nov 2007
Messaggi: 260
In questi giorni mi sto godendo Devil May Cry 4 (giocone!) ed osservando i grafici noto una differenza ABISSALE tra le 2 schede: 57fps per la 4870 e 80fps per la GTX260 AMP.


AHAHAHA scusa ma chiamare quel giochino da sala giochi GIOCONE mi fa scompisciare dalle risate, quando l'ho istallato ed ho visto un pupo che che salta e corre in un mondo del tutto IMMOBILE e DISEGNATO coi colori della Giotto mi sono messo a ridere e l'ho cancellato dopo 15 minuti di gioco. Apparte tutto si vede che è chiaramente ottimizzato per nvidia visto che la mia 8800gt va di più della hd4850 (nettamente superiore). Half Life 2 è 10anni luce meglio di devil may cry e pensa che è uscito 4 anni fa!!!
rollocarmelo è offline   Rispondi citando il messaggio o parte di esso
Old 13-07-2008, 14:41   #99
Roirei
Senior Member
 
L'Avatar di Roirei
 
Iscritto dal: Aug 2002
Città: Provincia Verona
Messaggi: 860
Non avendo ancora detto nulla nvidia riguardo la perdita del segnale video delle 8800gt, me ne guarderò bene dall'acquistare questa o qualsiasi altra scheda basata su archittetura nvidai!
Roirei è offline   Rispondi citando il messaggio o parte di esso
Old 13-07-2008, 17:15   #100
Xilema
Senior Member
 
L'Avatar di Xilema
 
Iscritto dal: Dec 2000
Città: Provincia de Venessia
Messaggi: 24006
Quote:
Originariamente inviato da yossarian Guarda i messaggi
l'UE3 utilizza deferred rendering-> RV770 è dx10.1-> le dx10.1 prevedono l'utilizzo di AA+deferred rendering (MRT per lo shader core)-> i chip nVidia non sono dx10.1-> i chip nVidia non supportano il MRT per lo shader core-> i chip NV non sono in grado di fare AA+deferred rendering in maniera corretta

l'UE3 non è dx10 ma è stata introdotta una path dx che permette ai chip NV di applicare l'AA (in maniera non corretta e trasformando in statiche le ombre dinamiche); allo stesso modo, non è stata implementata una path dx10.1 che permetterebbe ai chip ATi di fare (in maniera corretta) deferred rendering con AA.

In effetti, dei limiti di architettura ci sono

Non mi piace parlare tecnico perchè alla fine si parla di aria fritta... proprio come stai parlando tu, sorry.
Ora come ora, sotto XP, ovvero il sistema che l' 80% dei videogiocatori mondiali usa ancora, le schede video nVidia permettono di usare l' AA con i giochi che usano l' Unreal engine 3, le schede ATI no.
Lo so che non è un AA preciso perchè non si basa sul deferred shading e bla bla bla bla, fatto sta che adesso... Unreal tournament 3, Bioshock, Mass effect ed altri giochi che usano l' Unreal engine 3, possono essere giocati con AA attivato su schede nVidia, e almeno tutto quello che è poligonale viene smussato correttamente.
Meglio un AA parziale che nessun AA, senza contare che le ombre restano dinamiche, e non statiche (Cosa visibilissima a chiunque).
Le DX10.1 sono aria fritta ora come ora, e Vista è un sistema del piffero: si farà prima a passare al prossimo sistema operativo piuttosto che passare a Vista per giocare, indi... m' interessano solo le DX9, e le schede nVidia rendono meglio di quelle ATI in questo campo.
Se poi vuoi dire che non è vero o aprire una sciocca faida da fanboy... mi tiro indietro, ho avuto pacchi di schede ATI e nVidia a seconda dei momenti di splendore delle case: compro solo in base alla qualità e alle feature.
__________________
ALI: Seasonic VERTEX GX 850W * MOBO: Gigabyte B760 Aorus Master * CPU: Intel Core i7 13700KF * GPU: Gigabyte GeForce RTX 4080 Eagle OC * RAM: 32 GB DDR 4 G. Skill Aegis 3200 CL16 * HD: SSD M.2 Samsung 980 PRO 1 TB + Crucial MX500 4 TB * OS: Windows 11 Home 64 bit

Ultima modifica di Xilema : 13-07-2008 alle 17:18.
Xilema è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Test ride con Gowow Ori: elettrico e off-road vanno incredibilmente d'accordo Test ride con Gowow Ori: elettrico e off-road va...
Recensione OnePlus 15: potenza da vendere e batteria enorme dentro un nuovo design   Recensione OnePlus 15: potenza da vendere e batt...
AMD Ryzen 5 7500X3D: la nuova CPU da gaming con 3D V-Cache per la fascia media AMD Ryzen 5 7500X3D: la nuova CPU da gaming con ...
SONY BRAVIA 8 II e BRAVIA Theatre System 6: il cinema a casa in formato compatto SONY BRAVIA 8 II e BRAVIA Theatre System 6: il c...
KTC H27E6 a 300Hz e 1ms: come i rivali ma a metà prezzo KTC H27E6 a 300Hz e 1ms: come i rivali ma a met&...
Xeon Diamond Rapids solo a 16 canali: In...
ECOVACS DEEBOT T80 OMNI scontato di 600€...
Mac Pro, è davvero finita? Il Mac...
Texas nuovo cuore dell'intelligenza arti...
4,9 miliardi su Google: Buffett sfida il...
Google ha svelato un agente AI che può g...
Tesla cambia idea: è in arrivo l'...
Anche Firefox punta sull'intelligenza ar...
Stop alle super-accelerazioni delle auto...
Osservatorio AGCOM: sempre più ac...
Sempre più IA su Spotify: arrivan...
iMac M4 crolla a 1.199€ con risparmio di...
Nintendo Switch 2: in rilascio un nuovo ...
Core Ultra 9 290K Plus, Core Ultra 7 270...
Prezzo Black Friday per le super cuffie ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 07:58.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1