Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

I nuovi schermi QD-OLED di quinta generazione di MSI, per i gamers
I nuovi schermi QD-OLED di quinta generazione di MSI, per i gamers
MSI continua ad investire nel proporre schermi pensati per rispondere alle esigenze dei videogiocatori, utilizzando la quinta generazione di tecnologia QD-OLED sviluppata da Samsung. Il modello MGP 341CQR QD-OLED X36 è lpultima novità al debutto in concomitanza con il CES 2026, uno schermo curvo di ampia risoluzione pensato per i videogiocatori più esigenti
Recensione vivo X300 Pro: è ancora lui il re della fotografia mobile, peccato per la batteria
Recensione vivo X300 Pro: è ancora lui il re della fotografia mobile, peccato per la batteria
vivo X300 Pro rappresenta un'evoluzione misurata della serie fotografica del produttore cinese, con un sistema di fotocamere migliorato, chipset Dimensity 9500 di ultima generazione e l'arrivo dell'interfaccia OriginOS 6 anche sui modelli internazionali. La scelta di limitare la batteria a 5.440mAh nel mercato europeo, rispetto ai 6.510mAh disponibili altrove, fa storcere un po' il naso
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2 è la nuova handheld PC gaming con processore AMD Ryzen Z2 Extreme (8 core Zen 5/5c, GPU RDNA 3.5 16 CU) e schermo OLED 8,8" 1920x1200 144Hz. È dotata anche di controller rimovibili TrueStrike con joystick Hall effect e una batteria da 74Wh. Rispetto al dispositivo che l'ha preceduta, migliora ergonomia e prestazioni a basse risoluzioni, ma pesa 920g e costa 1.299€ nella configurazione con 32GB RAM/1TB SSD e Z2 Extreme
Tutti gli articoli Tutte le news

Vai al Forum
Discussione Chiusa
 
Strumenti
Old 28-05-2007, 20:45   #41
Grey 7
Senior Member
 
L'Avatar di Grey 7
 
Iscritto dal: Mar 2006
Città: Torino
Messaggi: 10899
se è per questo secondo me non hanno manco spremuto ben bene le dx9...e l'uscita di Vista ha contato non poco in questo. purtroppo è cosi, che ci devi fare
__________________
BAU! Case: Corsair Graphite 600T silver PSU: Seasonic G-650 CPU: Intel 2500k Cooler: Corsair H100i Main: Biostar TZ77XE4 RAM: 4x2 gb Corsair vengeance ddr3 1600mhz low profile VGA: nVidia Evga GTX 1070 FTW Gaming Acx 3.0 8GB Audio: Asus Xonar D2+SennheiserPC 350 Special Edition 2015 HDD: Samsung 840 250GB+WD black 1tb sata3+samsung 500gb+lacie 1tb Monitor: LG IPS235P-BN S.O: Windows 10 Pro x64 M&K: Logitech g19+g500
Grey 7 è offline  
Old 28-05-2007, 22:08   #42
Marko91
Senior Member
 
L'Avatar di Marko91
 
Iscritto dal: Aug 2005
Messaggi: 2052
Quote:
Originariamente inviato da Kharonte85 Guarda i messaggi
La 8800 arriva a circa 330 Gflops, il che suggerisce che il nuovo prodotto di Nvidia possa essere tre volte più veloce.
G80 arriva a 512 Gigaflops considerando le MUL.
La dichiarazione di Nvdia è quindi ambigua: 1 Teraflops considerando le mul o no? Su beyond3d hanno iniziato a pensare come arrivare a quel risultato con una architettura potenziata di G80:

Se Nvidia considera anche le performance delle MUL l'architettura di G92 potrebbe essere:

MUL+MADD: 3 flops x 16ALUs x 12 clusters @ 1.7Ghz = 980 Gigaflops
Quindi 192 stream processor alla frequenza di 1,7 Ghz.
Un aumento del 33% degli sp e del 20% della frequenza.

Se Nvidia considera solo le performance delle unità MADD allora potrebbero esserci 2 ipotesi:

2 flops x 16ALUs x 12 clusters @ 2.5Ghz = 960 Gigaflops

192 sp (33% di più di G80) a 2,5 Ghz (45% di più di G80)


2 x 16ALUs x 16 clusters @ 1.8Ghz= 921 Gflops
256 Sp (50% in più) a 1,8 Ghz (25% in più rispetto G80)


Credo sia più probabile che nvidia abbia considerato anche le performance delle mul. Nel caso invece non l'abbia, per me l'opzione più probabile è l'ultima.
Gestire frequenze così elevate in una gpu è più difficile che aumentare il numero dei transistor in una determinata area, anche perchè avere il resto del core a frequenze troppo basse limiterebbe troppo il chip. Per mantenere lo stesso rapporto di G80 frequenza shader/frequenza core, a 2,5 ghz dei primi dovrebbe corrispondere una frequenza di 1 Ghz.
Marko91 è offline  
Old 28-05-2007, 22:15   #43
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38298
Quote:
Originariamente inviato da Marko91 Guarda i messaggi
G80 arriva a 512 Gigaflops considerando le MUL.
La dichiarazione di Nvdia è quindi ambigua: 1 Teraflops considerando le mul o no? Su beyond3d hanno iniziato a pensare come arrivare a quel risultato con una architettura potenziata di G80:

Se Nvidia considera anche le performance delle MUL l'architettura di G92 potrebbe essere:

MUL+MADD: 3 flops x 16ALUs x 12 clusters @ 1.7Ghz = 980 Gigaflops
Quindi 192 stream processor alla frequenza di 1,7 Ghz.
Un aumento del 33% degli sp e del 20% della frequenza.

Se Nvidia considera solo le performance delle unità MADD allora potrebbero esserci 2 ipotesi:

2 flops x 16ALUs x 12 clusters @ 2.5Ghz = 960 Gigaflops

192 sp (33% di più di G80) a 2,5 Ghz (45% di più di G80)


2 x 16ALUs x 16 clusters @ 1.8Ghz= 921 Gflops
256 Sp (50% in più) a 1,8 Ghz (25% in più rispetto G80)


Credo sia più probabile che nvidia abbia considerato anche le performance delle mul. Nel caso invece non l'abbia, per me l'opzione più probabile è l'ultima.
Gestire frequenze così elevate in una gpu è più difficile che aumentare il numero dei transistor in una determinata area, anche perchè avere il resto del core a frequenze troppo basse limiterebbe troppo il chip. Per mantenere lo stesso rapporto di G80 frequenza shader/frequenza core, a 2,5 ghz dei primi dovrebbe corrispondere una frequenza di 1 Ghz.
con i 65nm non mi sembrerebbe assolutamente impossibile, cmq ottima "analisi", complimenti
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline  
Old 28-05-2007, 22:31   #44
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Quote:
Originariamente inviato da appleroof Guarda i messaggi
con i 65nm non mi sembrerebbe assolutamente impossibile, cmq ottima "analisi", complimenti
Quoto
Kharonte85 è offline  
Old 29-05-2007, 08:44   #45
Skullcrusher
Senior Member
 
L'Avatar di Skullcrusher
 
Iscritto dal: Jan 2006
Città: Vicenza
Messaggi: 5985
G92 è previsto novembre, dico bene?
__________________
CPU Core i7 12700K, Dissi Noctua NH-D15, S.Video Msi GTX 1080 8GB Gaming X, Ram 32GB G.Skill 6000MHz, Mobo Asus Prime Z690-A, S.Audio Sound Blaster Z + Yamaha 2910, HDD1 SSD Samsung 980 Pro 1TB, Ali Corsair AX760, Case Cooler Master Silencio 652S, Monitor Dell U2713HM
Skullcrusher è offline  
Old 29-05-2007, 09:22   #46
Gabriyzf
Senior Member
 
L'Avatar di Gabriyzf
 
Iscritto dal: May 2005
Città: provincia di Varese
Messaggi: 6244
Quote:
Originariamente inviato da Skullcrusher Guarda i messaggi
G92 è previsto novembre, dico bene?
mi pare un pò più in là
Gabriyzf è offline  
Old 29-05-2007, 09:38   #47
Marko91
Senior Member
 
L'Avatar di Marko91
 
Iscritto dal: Aug 2005
Messaggi: 2052
Quote:
Originariamente inviato da Skullcrusher Guarda i messaggi
G92 è previsto novembre, dico bene?
Si. A questo punto G81 se arriverà, sarà rilasciato tra luglio e agosto. In quel momento ci sarà già la demo di Crysis Dx10, Lost Planet sarà in commercio e Bioshock in arrivò, titoli che potrebbero essere pesanti anche per un G80, sopratutto a risoluzioni non convenzionali.
Presumo che sarà "solo" un G80@65nm con frequenze aumentate (128 sp a 1,8-2 Ghz e core a 700-800 Mhz?) a metà strada tra le prestazioni di G80 e G92.
Certo che Crysis a 2560x1600 deve essere moolto interessante...
Non credo che un singolo G92, anche nella migliore delle ipotesi, riesca ad avere framerate da giocatore hardcore (50-60 fps medi) a quelle risoluzione. Ci vorrà comunque uno SLi.
Marko91 è offline  
Old 29-05-2007, 09:54   #48
Skullcrusher
Senior Member
 
L'Avatar di Skullcrusher
 
Iscritto dal: Jan 2006
Città: Vicenza
Messaggi: 5985
Quote:
Originariamente inviato da Gabriyzf Guarda i messaggi
mi pare un pò più in là
Quote:
Originariamente inviato da Marko91 Guarda i messaggi
Si. A questo punto G81 se arriverà, sarà rilasciato tra luglio e agosto. In quel momento ci sarà già la demo di Crysis Dx10, Lost Planet sarà in commercio e Bioshock in arrivò, titoli che potrebbero essere pesanti anche per un G80, sopratutto a risoluzioni non convenzionali.
Presumo che sarà "solo" un G80@65nm con frequenze aumentate (128 sp a 1,8-2 Ghz e core a 700-800 Mhz?) a metà strada tra le prestazioni di G80 e G92.
Certo che Crysis a 2560x1600 deve essere moolto interessante...
Non credo che un singolo G92, anche nella migliore delle ipotesi, riesca ad avere framerate da giocatore hardcore (50-60 fps medi) a quelle risoluzione. Ci vorrà comunque uno SLi.
Ok, grazie.
__________________
CPU Core i7 12700K, Dissi Noctua NH-D15, S.Video Msi GTX 1080 8GB Gaming X, Ram 32GB G.Skill 6000MHz, Mobo Asus Prime Z690-A, S.Audio Sound Blaster Z + Yamaha 2910, HDD1 SSD Samsung 980 Pro 1TB, Ali Corsair AX760, Case Cooler Master Silencio 652S, Monitor Dell U2713HM
Skullcrusher è offline  
Old 08-06-2007, 17:30   #49
Golfer
Senior Member
 
L'Avatar di Golfer
 
Iscritto dal: Mar 2007
Città: Lugano
Messaggi: 1708
Ma poi... il G92 sarà sempre compatibile con le modo di adesso vero?
Xkè se gli viene in mente l'idea di farla il PCI-E 2.0... siamo fottuti...
Avevo intenzione di prendere una 8900GTX quest'estate, ma a questo punto aspetto natale
__________________
Core 2 Quad Q6700 + OCLabs MB-6E - Asus P5Q Deluxe - 4x1Gb OCZ FlexXLC PC9200 1150MHz - GeForce 9800GTX - 2x Samsung PB22-J 128Gb Raid 0 + Western Digital Caviar SE 808.8Gb - PC Power & Cooling Silencer 910W - Thermaltake Speedo Advance - Logitech G15 - Razer Lachesis - Samsung 245B - Logitech Z-5500
Golfer è offline  
Old 08-06-2007, 17:45   #50
ilcose
Senior Member
 
L'Avatar di ilcose
 
Iscritto dal: Dec 2006
Città: sumirago (VA)
Messaggi: 4825
se i primi annunci sono veri credo la prendero x stare tranquillo in dx10 dato gli inizi poco incoraggianti (notare la firma)...ma la prendero non dopo aver letto 5 volte una ventina di bench ovviamente se il divario con la 8800 sara molto e se sara compatibile con le attuali schede madri (se no )
ilcose è offline  
Old 08-06-2007, 18:14   #51
fukka75
Senior Member
 
L'Avatar di fukka75
 
Iscritto dal: Jun 2003
Città: ovviamente la Capitale
Messaggi: 12967
Il PCIe 2.0 è retrocompatibile: si potranno montare senza problemi VGA PCIe1.x su mobo PCIe2.0, ma non mi è ancora molto chiaro se sarà possibile montare VGA PCIe2.0 su mobo PCIe1.x
__________________
Intel Corei7 3930k ** Asus Rampage IV Formula ** 4 x 4GB DDR3 G.Skill 1600MHz 8-8-8-24
Asus GTX970 Strix ** Samsung 840Pro 512GB ** Samsung 850 EVO 1TB ** Thermaltake Armor+
fukka75 è offline  
Old 08-06-2007, 18:19   #52
ilcose
Senior Member
 
L'Avatar di ilcose
 
Iscritto dal: Dec 2006
Città: sumirago (VA)
Messaggi: 4825
Quote:
Originariamente inviato da fukka75 Guarda i messaggi
Il PCIe 2.0 è retrocompatibile: si potranno montare senza problemi VGA PCIe1.x su mobo PCIe2.0, ma non mi è ancora molto chiaro se sarà possibile montare VGA PCIe2.0 su mobo PCIe1.x
appunto questo mi preoccupa! anke se io credo di si xke l'unica differenza è la banda passante e la corrente portata no?? x l'alimentaz pazienza vai con un molex in piu (come ora) e x la banda passante ora come ora non è ancora sfruttata quella dell 1.1!
ilcose è offline  
Old 08-06-2007, 18:24   #53
fukka75
Senior Member
 
L'Avatar di fukka75
 
Iscritto dal: Jun 2003
Città: ovviamente la Capitale
Messaggi: 12967
IL problema, e mio dubbio, è che se il PCIe2.0 porta 150W, permette di limtare il numero delle "prese" sul pcb delle vga; se una vga PCIe2.0 ha una sola "presa" e funziona in uno slot PCIe2.0, magari non funzionerà in uno PCIe1.x, perché gli arriva meno corrente, ed una sola "presa" potrebbe non bastargli (magari ne meeteranno due, proprio in previsione di uso su mobo PCIe1.x, con l'avvertenza di usarne una sola se la mobo è PCIe2.0)
__________________
Intel Corei7 3930k ** Asus Rampage IV Formula ** 4 x 4GB DDR3 G.Skill 1600MHz 8-8-8-24
Asus GTX970 Strix ** Samsung 840Pro 512GB ** Samsung 850 EVO 1TB ** Thermaltake Armor+
fukka75 è offline  
Old 08-06-2007, 18:27   #54
ilcose
Senior Member
 
L'Avatar di ilcose
 
Iscritto dal: Dec 2006
Città: sumirago (VA)
Messaggi: 4825
Quote:
Originariamente inviato da fukka75 Guarda i messaggi
IL problema, e mio dubbio, è che se il PCIe2.0 porta 150W, permette di limtare il numero delle "prese" sul pcb delle vga; se una vga PCIe2.0 ha una sola "presa" e funziona in uno slot PCIe2.0, magari non funzionerà in uno PCIe1.x, perché gli arriva meno corrente, ed una sola "presa" potrebbe non bastargli (magari ne meeteranno due, proprio in previsione di uso su mobo PCIe1.x, con l'avvertenza di usarne una sola se la mobo è PCIe2.0)
mi sembra una cosa logica....altrimenti una buona fetta di mercato va a farsi benedire e non è un bene x loro....d'altra parte c'è sempre chi spende migliaia di euro l'anno xo sono una fetta molto limitata! Poi non gli costa nulla mettere un attacco in piu dai
ilcose è offline  
Old 08-06-2007, 18:29   #55
fukka75
Senior Member
 
L'Avatar di fukka75
 
Iscritto dal: Jun 2003
Città: ovviamente la Capitale
Messaggi: 12967
__________________
Intel Corei7 3930k ** Asus Rampage IV Formula ** 4 x 4GB DDR3 G.Skill 1600MHz 8-8-8-24
Asus GTX970 Strix ** Samsung 840Pro 512GB ** Samsung 850 EVO 1TB ** Thermaltake Armor+
fukka75 è offline  
Old 08-06-2007, 18:44   #56
A.L.M.
Senior Member
 
L'Avatar di A.L.M.
 
Iscritto dal: Feb 2006
Città: Looking for a place to call home
Messaggi: 5325
Quote:
Originariamente inviato da JoeLatino Guarda i messaggi
naaa....
supporta si' le tesseletions ma in maniera mezza castrata (infatti a settembre uscira' la versione rifatta a 65 con un nuovo engine grafico!)
ripeto ora come ora non credo che le 2900xt siano compatibili (infatti non sono neppure certificate)
Quote:
Originariamente inviato da JoeLatino Guarda i messaggi
anche se tutto cio' fosse vero,vedrai che comunque saranno solo in parte compatibili,visto che mancano altre cose per renderle compatibili al 100% (o almeno sembra dai rumors )
Mi chiedo dove tu abbia letto tutto ciò...
In realtà le DX10.1 dovrebbero solo essere un aggiornamento delle DX10, tanto che all'inizio si pensava che tutte le DX10 dovessero essere compatibili con le DX10.1. C'è però da registrare il fatto che Microsoft sta pensando di far inserire tra le richieste hw DX10.1 la tessellation unit (che in R600 non è affatto castrata, visto che esiste già, e funziona, su Xenos). Dunque il tutto è molto fumoso.

Quote:
Originariamente inviato da Marko91 Guarda i messaggi
G80 arriva a 512 Gigaflops considerando le MUL.
La dichiarazione di Nvdia è quindi ambigua: 1 Teraflops considerando le mul o no? Su beyond3d hanno iniziato a pensare come arrivare a quel risultato con una architettura potenziata di G80:

Se Nvidia considera anche le performance delle MUL l'architettura di G92 potrebbe essere:

MUL+MADD: 3 flops x 16ALUs x 12 clusters @ 1.7Ghz = 980 Gigaflops
Quindi 192 stream processor alla frequenza di 1,7 Ghz.
Un aumento del 33% degli sp e del 20% della frequenza.

Se Nvidia considera solo le performance delle unità MADD allora potrebbero esserci 2 ipotesi:

2 flops x 16ALUs x 12 clusters @ 2.5Ghz = 960 Gigaflops

192 sp (33% di più di G80) a 2,5 Ghz (45% di più di G80)


2 x 16ALUs x 16 clusters @ 1.8Ghz= 921 Gflops
256 Sp (50% in più) a 1,8 Ghz (25% in più rispetto G80)


Credo sia più probabile che nvidia abbia considerato anche le performance delle mul. Nel caso invece non l'abbia, per me l'opzione più probabile è l'ultima.
Gestire frequenze così elevate in una gpu è più difficile che aumentare il numero dei transistor in una determinata area, anche perchè avere il resto del core a frequenze troppo basse limiterebbe troppo il chip. Per mantenere lo stesso rapporto di G80 frequenza shader/frequenza core, a 2,5 ghz dei primi dovrebbe corrispondere una frequenza di 1 Ghz.
Sono d'accordo.
Aggiungerei solo che i numeri teorici, con certe frequenze, rischiano di diventare ancor più teorici.
Ricordo che in realtà la MUL aggiuntiva di G80 ad oggi funziona solo in minima parte: se, come accade ancora oggi, le MUL aggiuntive continuassero a funzionare a meno che mezzo servizio, dai 980GFlops teorici si passerebbe a circa 750 effettivi.
2 flops x 16ALUs x 12 clusters @ 1.7Ghz *1.15 (moltiplicatore che considera l'efficienza aggiuntiva garantita dalla "missing MUL", calcolato da Beyond3D)= 751 Gigaflops.
__________________
A.L.M. @ HWBOT | Personal PC: Asus N56VZ | Work PC: Lenovo Thinkpad T420 (Core i5 2520M, 4GB ram, 320GB 7200rpm) | Mobile device: iPhone 4S
Work It Harder, Make It Better, Do It Faster, Makes Us Stronger, More Than Ever Hour After Hour Work Is Never Over
A.L.M. è offline  
Old 08-06-2007, 19:28   #57
ilcose
Senior Member
 
L'Avatar di ilcose
 
Iscritto dal: Dec 2006
Città: sumirago (VA)
Messaggi: 4825
Quote:
Originariamente inviato da A.L.M. Guarda i messaggi
Mi chiedo dove tu abbia letto tutto ciò...
In realtà le DX10.1 dovrebbero solo essere un aggiornamento delle DX10, tanto che all'inizio si pensava che tutte le DX10 dovessero essere compatibili con le DX10.1. C'è però da registrare il fatto che Microsoft sta pensando di far inserire tra le richieste hw DX10.1 la tessellation unit (che in R600 non è affatto castrata, visto che esiste già, e funziona, su Xenos). Dunque il tutto è molto fumoso.



Sono d'accordo.
Aggiungerei solo che i numeri teorici, con certe frequenze, rischiano di diventare ancor più teorici.
Ricordo che in realtà la MUL aggiuntiva di G80 ad oggi funziona solo in minima parte: se, come accade ancora oggi, le MUL aggiuntive continuassero a funzionare a meno che mezzo servizio, dai 980GFlops teorici si passerebbe a circa 750 effettivi.
2 flops x 16ALUs x 12 clusters @ 1.7Ghz *1.15 (moltiplicatore che considera l'efficienza aggiuntiva garantita dalla "missing MUL", calcolato da Beyond3D)= 751 Gigaflops.
scusate ma nel discorso prettamente tecnico mi sono perso MUL?
ilcose è offline  
Old 14-06-2007, 00:19   #58
Kal-El
Senior Member
 
L'Avatar di Kal-El
 
Iscritto dal: Jul 2004
Città: Smallville, Kansas (USA)
Messaggi: 5812
Iscritto
__________________
"Anche se sei stato cresciuto come un essere umano non sei uno di loro. Sono un grande popolo, Kal-El. Vorrebbero esserlo. Ma non hanno la luce che illumini loro la strada. Per questo soprattutto, la loro disposizione al bene, che ho mandato te… il mio unico figlio”. -Jor-El” *** MILLA JOVOVICH Fan Club
Kal-El è offline  
Old 15-06-2007, 20:38   #59
nico88desmo
Senior Member
 
Iscritto dal: Jul 2006
Messaggi: 1568
We learned that G92 will feature some minor changes from G80 chip. It will be a 65 nanometre chip with significantly higher clock than G80's modest 600 MHz and it will feature PCIe 2.0 support.

The card is suppose to be launched sometimes in early Q4 to meet the Xmas shopping madness and Nvidia is still on schedule.

PCIe 2.0 is the new specification that lets graphic card manufactures to get more power for its graphic card and with this new standard Nvidia and ATI can enjoy about 300W per graphic card. Intel X38 chipset and ATI's RD790 and variations should support this standard and Nvidia will have one of its own soonish.

We expect these new chipsets at autumn time as we seen them up and running at Computex last week.

Fonte: http://www.fudzilla.com/index.php?op...=1482&Itemid=1
nico88desmo è offline  
Old 15-06-2007, 20:57   #60
xxxyyy
Senior Member
 
L'Avatar di xxxyyy
 
Iscritto dal: Apr 2002
Messaggi: 4389
Bah... per me si son confusi con il refresh a 65nm di G80...
xxxyyy è offline  
 Discussione Chiusa


I nuovi schermi QD-OLED di quinta generazione di MSI, per i gamers I nuovi schermi QD-OLED di quinta generazione di...
Recensione vivo X300 Pro: è ancora lui il re della fotografia mobile, peccato per la batteria Recensione vivo X300 Pro: è ancora lui il...
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'...
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti AWS re:Invent 2025: inizia l'era dell'AI-as-a-Se...
Cos'è la bolla dell'IA e perché se ne parla Cos'è la bolla dell'IA e perché se...
La Russia prosegue lo sviluppo di reatto...
Roscosmos: da quest'anno ci potrà...
Amazon, tutte le offerte e qualche novit...
Sedie gaming in offerta su Amazon: desig...
Scope elettriche in offerta Amazon: mode...
Ricarica EV fino a 22 kW spendendo poco:...
Costa solo 139€ ma fa tutto: Lefant M330...
Amazon Haul spinge sul risparmio: sconti...
Oral-B iO in offerta su Amazon: maxi sco...
I cosmonauti avrebbero riparato tutte le...
Artemis II: la NASA conferma il lancio d...
Il CEO di Embrak Studios difende l'uso d...
Il Trump Phone è sempre più un mistero: ...
OPPO ha svelato la serie Reno 15 "global...
Poste ID diventa a pagamento: l'identità...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 22:34.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v