Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone'
Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone'
Zenfone 11 Ultra ha tantissime qualità interessanti, fra cui potenza da vendere, un display di primissimo livello, un comparto audio potente e prestazioni di connettività fra le migliori della categoria. Manca però dell'esclusività del predecessore, che in un settore composto da "padelloni" si distingueva per le sue dimensioni compatte. Abbiamo provato il nuovo flagship ASUS, e in questa recensione vi raccontiamo com'è andata.
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Abbiamo partecipato ad Appian World 2024, evento dedicato a partner e clienti che si è svolto recentemente nei pressi di Washington DC, vicino alla sede storica dell’azienda. Nel festeggiare il 25mo anniversario, Appian ha annunciato diverse novità in ambito intelligenza artificiale
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Primo contatto con il monitor Lenovo ThinkVision 3D 27 che grazie a particolari accorgimenti tecnici riesce a ricreare l'illusione della spazialità tridimensionale senza che sia necessario utilizzare occhialini
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 14-08-2018, 15:53   #21
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11683
Quote:
Originariamente inviato da ciciolo1974 Guarda i messaggi
Quindi questi tensor core non servono ad "aioutare" i CUDA nel calcolo GPGPU render? (octane nello specifico)

nel calcolo diretto non credo, che io sappia, tutti i motori di render attuali sono solo FP32 ( anche perchè a FP16 avresti un decadimento della qualita dovuta ad approssimazioni dell'illuminazione troppo marcate ); con il post de-noise invece credo di si, in quel caso i pixel sono gia stati calcolati in modo accurato e vai solo a "uniformare" i pixel.


credo che per ora varra piu che altro per i game engine; a quanto si è visto dalle slide, tutti e 3 i tipi di Core, i CUDA, l'RT e i Tensor dovrebbero concorrere a calcolare l'immagine finale, ognuno per cio che gli compete;
nel caso specifico pero credo che sara di piu l'RT Core a fare la parte del leone; non hanno ancora spiegato cosa sia in modo dettagliato pero presumo, ( mia personale deduzione ) che si tratti di unita di calcolo specifiche atte solo a calcolare il percorso dei raggi luminosi e dei relativi rimbalzi, mentre il resto dei calcoli vengono svolti dai classici CUDA.

Quote:
Originariamente inviato da Roland74Fun Guarda i messaggi
Si, però questo è un thread dedicato a Nvidia.... possiamo per favore parlare solo delle nostre schede senza inquinarlo tirando fuori le cose delle altre marche?

Grazie.

sono piu che in argomento


prego.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 14-08-2018 alle 16:04.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 14-08-2018, 15:55   #22
Legolas84
Senior Member
 
L'Avatar di Legolas84
 
Iscritto dal: Sep 2002
Città: Orizzonte degli eventi
Messaggi: 22307
Quote:
Originariamente inviato da Ren Guarda i messaggi
Senti da che pulpito, ma se sei venuto a trollare insieme allo scemo del villaggio...

Dovete mandare in vacca ogni thread così tanto per sport...
looool

Ps
Ciao Ren che piacere rivederti da queste parti, era da un pò che non ti leggevo. Curioso di sentire poi la tua analisi/opinione su questa nuova architettura.
Legolas84 è offline   Rispondi citando il messaggio o parte di esso
Old 14-08-2018, 16:11   #23
Ren
Senior Member
 
L'Avatar di Ren
 
Iscritto dal: Apr 2003
Città: Roma
Messaggi: 3237
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
l'RT Core a fare la parte del leone; non hanno ancora spiegato cosa sia in modo dettagliato pero presumo, ( mia personale deduzione ) che si tratti di unita di calcolo specifiche atte solo a calcolare il percorso dei raggi luminosi e dei relativi rimbalzi, mentre il resto dei calcoli vengono svolti dai classici CUDA.
Secondo me è una deduzione molto probabile.

Già alcune aziende (non colossi come nvidia) in passano ci hanno provato, ma con scarsi risultati, visto anche l'assenza di una standardizzazione sponsorizzata da Microsoft.

Alcune implementazioni che ho visto oltre al setup dei ray hanno anche parecchie unità atte ad un culling massivo per i raggi che non contribuiscono all'immagine finale.
Se non ricordo male imgtec parlava di un risparmio di area di 40 volte per un unità di hardware (setup) rispetto all'implementazione via shader.

Ultima modifica di Ren : 14-08-2018 alle 17:30.
Ren è offline   Rispondi citando il messaggio o parte di esso
Old 14-08-2018, 16:20   #24
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11683
Quote:
Originariamente inviato da Ren Guarda i messaggi
Secondo me è una deduzione molto probabile.

Già alcune aziende (non colossi come nvidia) in passano ci hanno provato, ma con scarsi risultati, visto l'assenza di una standardizzazione sponsorizzata da Microsoft.

Alcune implementazioni che ho visto oltre al setup dei ray hanno anche parecchie unità atte ad un culling massivo per i raggi che non contribuiscono all'immagine finale.
Se non ricordo male imgtec parlava di un risparmio di area di 40 volte per un unità di hardware (setup) rispetto all'implementazione via shader.
si avevo letto e infatti stavo aspettando solo il giorno di vederle nel mercato "consumer".

in questo caso credo che lo standard lo abbia fatto nVidia, perchè alcuni dei suoi algoritmi sono integrati nei motori di render attuali come Vray, e magari si baseranno anche su algoritmi simili agli embree di Intel.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 14-08-2018, 16:41   #25
Ren
Senior Member
 
L'Avatar di Ren
 
Iscritto dal: Apr 2003
Città: Roma
Messaggi: 3237
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
si avevo letto e infatti stavo aspettando solo il giorno di vederle nel mercato "consumer".

in questo caso credo che lo standard lo abbia fatto nVidia, perchè alcuni dei suoi algoritmi sono integrati nei motori di render attuali come Vray, e magari si baseranno anche su algoritmi simili agli embree di Intel.
cmq tanta roba per i professionisti.
Se non spuntano fuori magagne credo sarà un duro colpo per i produttori di CPU/renderfarm. (soprattutto intel)

Stai mettendo da parte i soldi per il regalo di natale ?(uscita Q4 secondo anandtech)

Lo slogan da venditore di pentole recita :

The more GPUs you buy, the more money you save.

Quando "giacca di pelle" ha annunciato il prezzo di 10k ed ha detto "ironicamente" che è un furto mi sono ribaltato.

Ultima modifica di Ren : 14-08-2018 alle 17:18.
Ren è offline   Rispondi citando il messaggio o parte di esso
Old 14-08-2018, 17:31   #26
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11683
Quote:
Originariamente inviato da Ren Guarda i messaggi
cmq tanta roba per i professionisti.
Se non spuntano fuori magagne credo sarà un duro colpo per i produttori di CPU/renderfarm. (soprattutto intel)

Stai mettendo da parte i soldi per il regalo di natale ?(uscita Q4 secondo anandtech)

Lo slogan da venditore di pentole recita :

The more GPUs you buy, the more money you save.

Quando "giacca di pelle" ha annunciato il prezzo di 10k ed ha detto "ironicamente" che è un furto mi sono ribaltato.
quast'anno no, ho la casa

aspetto l'anno prossimo, l'assestamento dei prezzi, la Titan/Ti, e vedo un po anche come si muovono le software house in particolar modo l'Unreal e Chaos Group, e poi decido cosa prendere, anche perchè oltre all'Ray Tracing e all'RT, con i modelli scansionati inizio a stare un po strettino con la FE, necessito di piu potenza

si bè, 10K è effettivamente un furto, pero è la GPU per quelli a cui stanno stretti 48 Gb di Vram, quindi alla fine si tratta di poche realta che di certo se lo possono permettere di prenderle a coppie e andare di nVlink a 96GB.
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 14-08-2018 alle 17:36.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 14-08-2018, 19:41   #27
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da AceGranger Guarda i messaggi


ah gia, che a te piacciono solo i game engine che fanno apparire le VEGA meno cesso di quello che sono
Stai parlando con uno che ancora non è riuscito a capire la differenza di carico che c'è nell'elaborazione fra il riproduzione un vasto ambiente open world e uno scenario chiuso.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 14-08-2018, 20:16   #28
Gyammy85
Senior Member
 
L'Avatar di Gyammy85
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18381
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Stai parlando con uno che ancora non è riuscito a capire la differenza di carico che c'è nell'elaborazione fra il riproduzione un vasto ambiente open world e uno scenario chiuso.
Ma smettila, si parlava tranquillamente del nuovo doom e arrivi tu "eh ma gli open worldddd"
__________________
MSI B550 Gaming Plus - AMD Ryzen 5 5600X - HyperX Fury RGB 32GB 3200 @3600 - Kingston KC3000 1 TB/XPG SX8200 Pro 512 GB - Sapphire Radeon Pure RX 7800 XT - Corsair CX750F RGB - Cooler Master GM32-FQ
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 14-08-2018, 21:52   #29
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
Ma smettila, si parlava tranquillamente del nuovo doom e arrivi tu "eh ma gli open worldddd"
E ancora continui a non capire il perchè.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 14-08-2018, 22:50   #30
Kaiman
Member
 
Iscritto dal: Jan 2003
Messaggi: 286
Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
Io ipotizzo in base alle esperienze passate con pysics, e non scordo che i primi tempi senza scheda nvidia dedicata metro 2033 andava a 5 fps, poi un bel giorno, quasi per magia, anche via software girava bene.
Ah, la global illumination, che amd cerca di portare avanti fin dal 2008 con le dx 10.1...eh, si potrebbero riempire libri…
Comunque non voglio essere polemico, se non altro vedremo cosa ci riserva navi, il primato nel computing non va perso
Beh... bastava togliere il fumo volumetrico e altri 3/4 effetti pesanti.
Kaiman è offline   Rispondi citando il messaggio o parte di esso
Old 15-08-2018, 08:08   #31
Gyammy85
Senior Member
 
L'Avatar di Gyammy85
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18381
Quote:
Originariamente inviato da Kaiman Guarda i messaggi
Beh... bastava togliere il fumo volumetrico e altri 3/4 effetti pesanti.
Parlavo degli effetti aggiuntivi physics, che richiedevano inizialmente una geforce per andare, in assenza della quale il gioco a andava a 5 fps.
__________________
MSI B550 Gaming Plus - AMD Ryzen 5 5600X - HyperX Fury RGB 32GB 3200 @3600 - Kingston KC3000 1 TB/XPG SX8200 Pro 512 GB - Sapphire Radeon Pure RX 7800 XT - Corsair CX750F RGB - Cooler Master GM32-FQ
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 15-08-2018, 09:52   #32
al135
Senior Member
 
L'Avatar di al135
 
Iscritto dal: Feb 2004
Città: perugia
Messaggi: 7914
mi ricorda molto il trailer di the division all'e3 del 2013....
poi usci il gioco con rendering tradizionale invece che raytracing.
per capirci era questo...
https://www.youtube.com/watch?v=njfj6KwEAfg&t=74s
__________________
Nvidia Manli GeForce RTX® 4090 Gallardo , INTEL i9-13900K, 32gb Crucial HyperX DDR5 @6000, SSD NVME Corsair Pcie 4.0 4TB, Monitor LG OLED 240HZ
27GR95QE
, Headset AR/VR Meta Quest Pro
al135 è offline   Rispondi citando il messaggio o parte di esso
Old 15-08-2018, 09:58   #33
sertopica
Senior Member
 
L'Avatar di sertopica
 
Iscritto dal: Jul 2000
Città: Prova ancora. Fallisci ancora. Fallisci meglio.
Messaggi: 20771
Ottimo traguardo, di strada da fare ce n'e' ancora taaaaaaanta pero'.
sertopica è offline   Rispondi citando il messaggio o parte di esso
Old 15-08-2018, 18:50   #34
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14722
Bisognerebbe notare che poco più di una generazione si è iniziato un percorso inverso da quello intrapreso con il passaggio alle DX10, dove si è passati dai pixel e vertex shader agli shader unificati.
Ora l'introduzione di nuove esigenze di calcolo porta a nuovamente a creare unità di calcolo distinte, e abbiamo ora CUDA core (i "vecchi" shader unificati), i Tensor Cores (per i calcoli di IA) e ora anche gli RT core (per il raytracing).
C'è da chiedersi se nelle prossime architettura si cercherà di integrare questi elementi distinti compiendo di nuovo il passo che si è fatto con gli shader unificati.

Ad ogni modo non me ne preoccuperei troppo, per lo meno in relazione al mercato consumer, dato che nel mercato professionale si avrà sicuramente modo di sfruttare appieno queste caratteristiche, che nascono da esigenze specifiche. Non me ne preoccuperei perchè questi non sono altri che i primissimi esperimenti di una tecnologia destinata a cambiare molto in fretta nei prossimi anni, quindi sicuramente ne vedremo qualche applicazione, ma nulla di davvero irrinunciabile. Quando queste tecnologie si stabilizzeranno allora credo che la questione diventerà molto più interessante per tutti.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 15-08-2018, 18:57   #35
Gyammy85
Senior Member
 
L'Avatar di Gyammy85
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18381
Quote:
Originariamente inviato da calabar Guarda i messaggi
Bisognerebbe notare che poco più di una generazione si è iniziato un percorso inverso da quello intrapreso con il passaggio alle DX10, dove si è passati dai pixel e vertex shader agli shader unificati.
Ora l'introduzione di nuove esigenze di calcolo porta a nuovamente a creare unità di calcolo distinte, e abbiamo ora CUDA core (i "vecchi" shader unificati), i Tensor Cores (per i calcoli di IA) e ora anche gli RT core (per il raytracing).
C'è da chiedersi se nelle prossime architettura si cercherà di integrare questi elementi distinti compiendo di nuovo il passo che si è fatto con gli shader unificati.

Ad ogni modo non me ne preoccuperei troppo, per lo meno in relazione al mercato consumer, dato che nel mercato professionale si avrà sicuramente modo di sfruttare appieno queste caratteristiche, che nascono da esigenze specifiche. Non me ne preoccuperei perchè questi non sono altri che i primissimi esperimenti di una tecnologia destinata a cambiare molto in fretta nei prossimi anni, quindi sicuramente ne vedremo qualche applicazione, ma nulla di davvero irrinunciabile. Quando queste tecnologie si stabilizzeranno allora credo che la questione diventerà molto più interessante per tutti.
Scusa, ma se amd fa la gpu con tanti shader che fanno tutto, nvidia perché mai dovrebbe unificare, dando ragione a amd? Faranno unità dedicate per tutto, perché perdere tempo a progettare una gpu versatile ed efficiente, quando puoi fare un quartiere di piccoli processori per un pò tutto? Una volta si mettevano i chip sulle mb, probabilmente si tornerà a questo, chissà...
__________________
MSI B550 Gaming Plus - AMD Ryzen 5 5600X - HyperX Fury RGB 32GB 3200 @3600 - Kingston KC3000 1 TB/XPG SX8200 Pro 512 GB - Sapphire Radeon Pure RX 7800 XT - Corsair CX750F RGB - Cooler Master GM32-FQ
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 15-08-2018, 19:46   #36
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14722
@Gyammy85
Francamente non vedo il senso del tuo intervento. AMD ha gli shader che fanno tutto perchè nelle attuali architetture non ha ancora ne hardware dedicato all'IA ne al RayTracing. Quando li avrà (si suppone al prossimo giro) vedremo che strada avrà preso e quale sarà la soluzione migliore.

Se le diverse operazioni necessitano di calcoli di tipo completamente differente credo che in futuro vedremo unità dedicate, se invece sarà possibile adattare un'unica unità di calcolo a svolgere tutte queste operazioni con una buona efficienza, allora si è probabile che si adotti la strada dell'unificazione come è stato per gli shader.
Il vantaggio nell'unificare sta ovviamente nel poter poi ripartire le risorse come si preferisce a seconda del tipo di carico di lavoro, ma se poi le unità unificate sono inefficienti questo vantaggio diventa insufficiente.

Secondo me per promuovere realmente il RayTracing in tempo reale la soluzione migliore è quella della scheda acceleratrice dedicata: le unità integrate mi danno l'idea di "troppo poco" e troppo poco flessibile (una scheda dedicata puoi cambiarla senza sostituire tutto il reparto GPU, e in un momento di evoluzione di questa tecnologia può essere un grande pregio).
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 15-08-2018, 20:07   #37
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 11683
Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
Scusa, ma se amd fa la gpu con tanti shader che fanno tutto, nvidia perché mai dovrebbe unificare, dando ragione a amd? Faranno unità dedicate per tutto, perché perdere tempo a progettare una gpu versatile ed efficiente, quando puoi fare un quartiere di piccoli processori per un pò tutto? Una volta si mettevano i chip sulle mb, probabilmente si tornerà a questo, chissà...
le GPU AMD non sono per nulla efficienti ed è per questo che quasi non esistono in ambito Pro e non esistono proprio in ambito Compute;
gli shader di AMD fanno tutto quello che fanno i CUDA Core, e poi si fermano li, punto, mentre nVidia con le unita dedicate riesce ad ottenere risultati di gran lunga migliori.

se AMD non iniziera ad integrare unita dedicate semplicemente non andra da nessuna parte; chi mai le acquistera delle Instinct con 40 TFlops FP16 quando nVidia ne fa 32 via CUDA e altri 125 via Tensor ?
__________________
AMD 3970X - TRX40 PRO 10G - 128 Gb - 2080Ti - Dual 4K - No More Render - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 15-08-2018 alle 20:10.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 08:33   #38
Gyammy85
Senior Member
 
L'Avatar di Gyammy85
 
Iscritto dal: Sep 2010
Città: Messina
Messaggi: 18381
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
le GPU AMD non sono per nulla efficienti ed è per questo che quasi non esistono in ambito Pro e non esistono proprio in ambito Compute;
gli shader di AMD fanno tutto quello che fanno i CUDA Core, e poi si fermano li, punto, mentre nVidia con le unita dedicate riesce ad ottenere risultati di gran lunga migliori.

se AMD non iniziera ad integrare unita dedicate semplicemente non andra da nessuna parte; chi mai le acquistera delle Instinct con 40 TFlops FP16 quando nVidia ne fa 32 via CUDA e altri 125 via Tensor ?
Ok ma facciamole uscire prima di dichiarare il fail di amd no?
hype hype hype hype, e non abbiamo ancora visto un 3dmark
__________________
MSI B550 Gaming Plus - AMD Ryzen 5 5600X - HyperX Fury RGB 32GB 3200 @3600 - Kingston KC3000 1 TB/XPG SX8200 Pro 512 GB - Sapphire Radeon Pure RX 7800 XT - Corsair CX750F RGB - Cooler Master GM32-FQ
Gyammy85 è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 09:21   #39
omihalcon
Senior Member
 
Iscritto dal: Sep 2002
Messaggi: 1640
Quote:
Originariamente inviato da calabar Guarda i messaggi
@Gyammy85
Secondo me per promuovere realmente il RayTracing in tempo reale la soluzione migliore è quella della scheda acceleratrice dedicata: le unità integrate mi danno l'idea di "troppo poco" e troppo poco flessibile (una scheda dedicata puoi cambiarla senza sostituire tutto il reparto GPU, e in un momento di evoluzione di questa tecnologia può essere un grande pregio).
Sono d'accordo ma questo però si scontra con il business basato sul consumismo attuale.
Preferiranno come al solito la soluzione all-in-one per far spendere un pò di soldi.

Puor parler, visto che non sono aggiornato sulle ultime tecnologie, Tensor Core e RT core aumentano efficienza e prestazioni nel mining?
Mi dispiacerebbe che continui l'inflazione sulle schede discrete in vista delle nuove GPU fascia Gaming.
Sicuramente l'anno scorso sono stati guadagni per i produttori ma crucio del 98% del resto del mondo (godo che adesso le cripto siano giù e che non sia tanto conveniente fare mining).
Per questo aspetto sarebbe più furbo costruire schede ad-hoc come erano le prime Physx .

---della serie vorrei cambiare la VGA ma non è concepibile tornare a prezzi allucinati di qualche mese fa
__________________
Prepare for jump to lightspeed!
Windows10 "is a service": che servizio del

driver di stampa WSD: What a Shit Driver!
omihalcon è offline   Rispondi citando il messaggio o parte di esso
Old 16-08-2018, 09:22   #40
omihalcon
Senior Member
 
Iscritto dal: Sep 2002
Messaggi: 1640
Quote:
Originariamente inviato da Gyammy85 Guarda i messaggi
Ok ma facciamole uscire prima di dichiarare il fail di amd no?
hype hype hype hype, e non abbiamo ancora visto un 3dmark
Va ancora di moda il 3Dmark?
__________________
Prepare for jump to lightspeed!
Windows10 "is a service": che servizio del

driver di stampa WSD: What a Shit Driver!
omihalcon è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Zenfone 11 Ultra: il flagship ASUS ritorna a essere un 'padellone' Recensione Zenfone 11 Ultra: il flagship ASUS ri...
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA Appian: non solo low code. La missione è ...
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini Lenovo ThinkVision 3D 27, la steroscopia senza o...
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing La Formula E può correre su un tracciato ...
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming Lenovo LEGION e LOQ: due notebook diversi, stess...
Sta per succedere! La prima gara a guida...
Parthenope: un nuovo RPG investigativo t...
Urbanista Malibu: ecco come va la cassa ...
Gas Station Simulator è costato 1...
AOC Graphic Pro U3, tre nuovi monitor pe...
Wacom Movink: per la prima volta il disp...
HPE Aruba presenta i nuovi access point ...
Lamborghini presenta Urus SE, prima vers...
Scuderia Ferrari e HP insieme: ufficiale...
Snapdragon X Plus, un nuovo SoC per i no...
L'iPad 10,9'' 64 GB è sceso a meno di 40...
Steam: basta ai furbetti dell'accesso an...
Motorola Edge 40 Neo con fotocamera da 5...
Arriva Kasperksy Next, la nuova gamma di...
Fallout, un successo senza fine: 1 milio...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 01:17.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www1v
1