Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

Recensione Google Pixel 10a, si migliora poco ma è sempre un'ottima scelta
Recensione Google Pixel 10a, si migliora poco ma è sempre un'ottima scelta
Google ha appena rinnovato la sua celebre serie A con il Pixel 10a, lo smartphone della serie più conveniente se consideriamo il rapporto tra costo e prestazioni. Con il chip Tensor G4, un design raffinato soprattutto sul retro e l'integrazione profonda di Gemini, il colosso di Mountain View promette un'esperienza premium a un prezzo accessibile. E il retro non ha nessuno scalino
6G, da rete che trasporta dati a rete intelligente: Qualcomm accelera al MWC 2026
6G, da rete che trasporta dati a rete intelligente: Qualcomm accelera al MWC 2026
Al MWC Qualcomm annuncia una coalizione industriale per lanciare il 6G entro il 2029 e introduce agenti IA per la gestione autonoma della RAN. Ericsson, presente sul palco, conferma la direzione: le reti del futuro saranno IA-native fin dalla progettazione
CHUWI CoreBook Air alla prova: design premium, buona autonomia e qualche compromesso
CHUWI CoreBook Air alla prova: design premium, buona autonomia e qualche compromesso
CHUWI CoreBook Air è un ultraleggero da 1 kg con Ryzen 5 6600H, display 14" 16:10 e 16 GB LPDDR5. Offre buona portabilità, autonomia discreta e costruzione in alluminio, ma storage PCIe 3.0 e RAM saldata limitano l'espandibilità. A 549 euro sfida brand più noti nella stessa fascia di mercato.
Tutti gli articoli Tutte le news

Vai al Forum
Discussione Chiusa
 
Strumenti
Old 14-04-2007, 12:28   #2001
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Quote:
Originariamente inviato da Simon82 Guarda i messaggi
Se e' vero le cose sono due:

1) hanno fatto un ottimo lavoro di ottimizzazione e finalmente le VGA dx10 vengono sfruttate per il lavoro per cui sono state create
propenderei per questa...

o meglio, lo spero...

Non dimentichiamoci che le caratteristiche di qst schede sono mostruose e che sn state create apposta per le dx10 nn per le 9!



questo implica che a parità di numero di oggetti visualizzati debba aumentare il numero di frames al secondo che possono essere generati.

Il superiore tempo a disposizione può tuttavia essere adottato per integrare nel sistema un numero maggiore di oggetti: averne a disposizione un numero più elevato permette di incrementare il realismo delle scene. Per spiegare questo con un banale esempio, un bosco composto da 10 alberi è sicuramente meno realistico, come tale, di uno nel quale sono 100 gli alberi presenti.

Secondo ATI, la riduzione dell'overhead dovrebbe permettere di ottenere incrementi del numero di oggetti visualizzati in una scena 3D variabili tra 2 e 5 volte, a seconda del tipo di scena e di oggetti, mantenendo invariato il numero di frames al secondo generati.

Un miglioramento dell'overhead passa quindi attraverso le nuove API DirectX 10, ma parallelamente anche con un ampio lavoro sui driver; per questo motivo i produttori di architetture video DirectX 10 sono all'opera nello studio e nell'ottimizzazione dei driver video, così da ridurre il più possibile questo dannoso overhead.


Hardware Upgrade

Ultima modifica di Kharonte85 : 14-04-2007 alle 12:35.
Kharonte85 è offline  
Old 14-04-2007, 13:03   #2002
jok3r87
Senior Member
 
L'Avatar di jok3r87
 
Iscritto dal: Dec 2005
Messaggi: 8279
Quote:
Originariamente inviato da Andrea deluxe Guarda i messaggi
Tenete in considerazione che la maggior parte di quel WATTAGGIO non lo dissipa solo la gpu, ma quei famosi 6 PWM digitali!

CHE DI CERTO NON SONO EFFICENTI AL 100%

Quindi io azzarderei nel dire che la gpu dissipa circa 160W, ed il resto ram, PWM, rage theater.......ecc
In parte hai ragione ma non del tutto perché sia le ram che i pwm devono essere dissipati. Quindi il dissipatore deve raffreddare anche questi componenti.
__________________
Vendo: cpu
AMD Ryzen 9950X3D - MSI X870E TOMAHAWAK - CORSAIR 2X32GB VENGEANCE 6000 CL30 - GIGABYTE RTX5080 Gaming OC - Corsair AX860 - PHANTEKS P600S
jok3r87 è offline  
Old 14-04-2007, 13:56   #2003
Marko91
Senior Member
 
L'Avatar di Marko91
 
Iscritto dal: Aug 2005
Messaggi: 2052
Quote:
Originariamente inviato da nonikname Guarda i messaggi
I valori g80 di Crysis sono reali : te lo posso garantire (ho seguito la presentazione al GDC personalmente )
Mi dai anche a me una notizia fantastica. Volevo un sistema per giocare ai massimi dettagli Crysis a 1280x1024 con i filtri attivi a 60 fps. Se la 8800 Gtx sta su quel valore, la HD 2900XT sarà mia, visto che il prezzo potrebbe essere molto più basso con prestazioni un bel pò superiori alla gtx.
Per quanto riguarda la dotazione di ram, quanta ne serve per i massimi dettagli? 2 o 4 Gb?
Marko91 è offline  
Old 14-04-2007, 14:07   #2004
TecnoWorld8
Senior Member
 
L'Avatar di TecnoWorld8
 
Iscritto dal: May 2003
Messaggi: 3556
peccato solamente che questo gioco - come tutti gli altri - avrà bisogno di vista per girare con dx10

ma possibile che proprio non le facciano, le dx10 per XP???

in ogni caso, parlando della scheda, io continuo a sperare in una XTX a 65nm, come si diceva tempo fa...cioè l'uscita di una ad 80nm all'inizio (xt) e poi poco dopo (1 mese?) la xtx a 65nm
__________________
| Ryzen 5800x3D | MSI x570 Gaming Plus | Noctua nh-d15 | 2x16GB KingStone Fury @ 3733Mhz CAS16 | Manli Gallardo 4090 RTX | samsung 980 pro 1TB | WD Black SN850x 2TB | samsung 850 pro 1TB | EVGA 1000w g2 | Alienware 32 4K QD OLED | Dell u2715h | Antec Eleven Hundred v2 |

TecnoWorld's Gaming Channel: https://www.youtube.com/@tecnoworldsgamingchannel5341

Unboxing Manli 4090 RTX: https://youtu.be/p9cckxBsXZM
TecnoWorld8 è offline  
Old 14-04-2007, 14:16   #2005
T3d
Senior Member
 
L'Avatar di T3d
 
Iscritto dal: Jun 2004
Messaggi: 1364
Quote:
Originariamente inviato da TecnoWorld8 Guarda i messaggi
peccato solamente che questo gioco - come tutti gli altri - avrà bisogno di vista per girare con dx10

ma possibile che proprio non le facciano, le dx10 per XP???

in ogni caso, parlando della scheda, io continuo a sperare in una XTX a 65nm, come si diceva tempo fa...cioè l'uscita di una ad 80nm all'inizio (xt) e poi poco dopo (1 mese?) la xtx a 65nm
io credo che sia improbabile una cosa del genere

mai dire mai però
T3d è offline  
Old 14-04-2007, 14:23   #2006
gianni1879
Bannato
 
L'Avatar di gianni1879
 
Iscritto dal: May 2004
Città: Sicily™ Trattative:Innumerevoli
Messaggi: 20620
Quote:
Originariamente inviato da jok3r87 Guarda i messaggi
In parte hai ragione ma non del tutto perché sia le ram che i pwm devono essere dissipati. Quindi il dissipatore deve raffreddare anche questi componenti.
beh non è detto, bisogna vedere se il dissy raffreddi anche quei componenti, ad es. sulla x1900 zona mos-fet erano raffreddati passivamente da un dissipatore diverso da quello della GPu, mentre per le ram sembra che il pad gommoso che vi sia serve più da isolante che da conduttore.
gianni1879 è offline  
Old 14-04-2007, 14:33   #2007
TecnoWorld8
Senior Member
 
L'Avatar di TecnoWorld8
 
Iscritto dal: May 2003
Messaggi: 3556
diciamo che voglio sperare che non si arrivi MAI ad una scheda che richiede 240W e che quindi ATi corra ai ripari con la versione a 65nm. 200W è già una cosa folle...secondo me. Mi piacerebbe sapere quanto una scheda di questo tipo consuma in idle. Ci sono molti PC che stanno accesi sempre...il mio compreso...bisognerà averne uno per giocare soltanto e uno da tenere acceso???
__________________
| Ryzen 5800x3D | MSI x570 Gaming Plus | Noctua nh-d15 | 2x16GB KingStone Fury @ 3733Mhz CAS16 | Manli Gallardo 4090 RTX | samsung 980 pro 1TB | WD Black SN850x 2TB | samsung 850 pro 1TB | EVGA 1000w g2 | Alienware 32 4K QD OLED | Dell u2715h | Antec Eleven Hundred v2 |

TecnoWorld's Gaming Channel: https://www.youtube.com/@tecnoworldsgamingchannel5341

Unboxing Manli 4090 RTX: https://youtu.be/p9cckxBsXZM
TecnoWorld8 è offline  
Old 14-04-2007, 14:49   #2008
zorco
Senior Member
 
L'Avatar di zorco
 
Iscritto dal: May 2005
Città: Zorcolandia...
Messaggi: 10085
Quote:
Originariamente inviato da TecnoWorld8 Guarda i messaggi
diciamo che voglio sperare che non si arrivi MAI ad una scheda che richiede 240W e che quindi ATi corra ai ripari con la versione a 65nm. 200W è già una cosa folle...secondo me. Mi piacerebbe sapere quanto una scheda di questo tipo consuma in idle. Ci sono molti PC che stanno accesi sempre...il mio compreso...bisognerà averne uno per giocare soltanto e uno da tenere acceso???
praticamente la sola scheda consuma quanto un intero pc diciamo di medio basso livello..
__________________
CPU Ryzen 9 7900 Scheda Madre MSI MPG X870E Carbon Memorie G.Skill Trident Z5 Neo RGB F5 64GB 6000 mhz SSD Kingston KC3000 M.2 NVMe 1TB , SSD Samsung Evo 870 1TB Scheda Video MSI GeForce RTX 5060 Ti 16G GAMING TRIO OC Case MSI MPG Velox 100R Alimentatore MSI MEG Ai1300P PCIE5 Dissipatore AIO MSI MAG CORELIQUID I360 Monitor ASUS PB277Q UPS APC BGM2200B-GR
zorco è offline  
Old 14-04-2007, 14:50   #2009
Kharonte85
Senior Member
 
L'Avatar di Kharonte85
 
Iscritto dal: May 2006
Messaggi: 19401
Quote:
Originariamente inviato da zorco Guarda i messaggi
praticamente la sola scheda consuma quanto un intero pc diciamo di medio basso livello..




Kharonte85 è offline  
Old 14-04-2007, 14:51   #2010
T3d
Senior Member
 
L'Avatar di T3d
 
Iscritto dal: Jun 2004
Messaggi: 1364
è un discorso giusto.

vedremo quali saranno i valori reali di consumo
non credo si arriverà ai 200w emersi fin qui
T3d è offline  
Old 14-04-2007, 14:56   #2011
Marko91
Senior Member
 
L'Avatar di Marko91
 
Iscritto dal: Aug 2005
Messaggi: 2052
Quote:
Originariamente inviato da TecnoWorld8 Guarda i messaggi
peccato solamente che questo gioco - come tutti gli altri - avrà bisogno di vista per girare con dx10

ma possibile che proprio non le facciano, le dx10 per XP???

in ogni caso, parlando della scheda, io continuo a sperare in una XTX a 65nm, come si diceva tempo fa...cioè l'uscita di una ad 80nm all'inizio (xt) e poi poco dopo (1 mese?) la xtx a 65nm

L'unico motivo che porterebbe Ati a realizzare una versione a 65 nm sarebbe per diminuire i consumi e i costi di produzione in fabbrica, per ora imho.
Se la XT superasse la 8800 Gtx di un 15%-20% e costasse 399$, Nvidia sarebbe costretta a lanciare la 8800 Ultra per rispondere, senza conoscere le reali performance di R600 XTX. Credo che sarebbe costretta a rispondere per motivi d'immagine e di mercato, perchè uscire con una scheda inferiore dopo la concorrenza è rischioso, non si riesce a ripagare l'investimento.
"Stimiamo" per la 8800 Ultra, performance il 30% superiori alla 8800 Gtx,magari grazie anche a driver molto migliori e ottimizzati. Dovrebbe essere quindi il 10% superiore alla R600XT, ma nella fascia di prezzo dei 499-599$.
A questo punto tocca alla R600XTX.
Con frequenze 800-850 / 2200 sarebbe il 10% più veloce della R600XT nelle basse risoluzioni (sotto i 1920x1200) e molto più veloce per le risoluzioni molto elevate grazie alla banda passante elevata. Non avrebbe senso lanciare un chip a 65 nm con frequenze di 1 Ghz solo 1 mese dopo a R600XT, sarebbe enormemente superiore alla concorrenza, alla propria fascia high-stream e per me sprecato. Se la tecnologia è già pronta, potrebbe servire per abbassare i costi per Ati, i consumi e il prezzo per il pubblico.
Quando Nvidia risponderà con le 8900 Gtx e la 8950 GX2, allora Ati lancerà R650 che avrà molto probabilmente frequenza del core a 1 Ghz e 96 shader unit.
Io credo che questa nuova battaglia inizierà a ottobre-novembre 2007, per un bel pò di mesi staremo molto tranquilli con un R600XT.
PS: i valori % gli ho stimati dai rumor (per la 8800 Ultra e R600XT), dalle performance teoriche delle architettura con + o meno Mhz sul core e per la banda passante (per R600XTX)


Quote:
Originariamente inviato da zorco Guarda i messaggi
praticamente la sola scheda consuma quanto un intero pc diciamo di medio basso livello..
Però contiene anche 2-3 volte il numero dei transistor di un pc di basso livello, ed è un centinaio di volte più performante.
Essendo R600 un progetto iniziato da Ati e già ormai avviato all'acquisizione da parte di AMD, credo che quest'ultima abbia potuto fare poco per modificare il chip e fargli assorbire meno potenza. Con il prossimo chip totalmente nuovo, cioè R700 credo che le cose cambieranno e AMD introdurrà sicuramente qualche features innovativa per il risparmio energetico.
Che ne pensate di un sistema per disattivare o abbassare la tensione di ognuno dei 5 gruppi delle shader unit in modo indipendente uno dall'altro per risparmiare energia? E magari disattivare pure alcune rops e tmu se si gioca su risoluzioni sotto un certo livello, dove non c'è bisogno di una enorme banda passante.
Sono soluzioni che verranno a breve integrate in K10.

Ultima modifica di Marko91 : 14-04-2007 alle 15:08.
Marko91 è offline  
Old 14-04-2007, 15:11   #2012
jok3r87
Senior Member
 
L'Avatar di jok3r87
 
Iscritto dal: Dec 2005
Messaggi: 8279
Quote:
Originariamente inviato da gianni1879 Guarda i messaggi
beh non è detto, bisogna vedere se il dissy raffreddi anche quei componenti, ad es. sulla x1900 zona mos-fet erano raffreddati passivamente da un dissipatore diverso da quello della GPu, mentre per le ram sembra che il pad gommoso che vi sia serve più da isolante che da conduttore.
Sulla X1950XTX e sulla X1950Pro il dissi raffredda anche la circuiteria di alimentazione, le immagini della versione OEM di R600 dimostrano che il dissipatore copre tutta la scheda, lo stesso accade con il prototipo di sistema a liquido installato sulla scheda. Il pad sulle ram non fa da isolante.
__________________
Vendo: cpu
AMD Ryzen 9950X3D - MSI X870E TOMAHAWAK - CORSAIR 2X32GB VENGEANCE 6000 CL30 - GIGABYTE RTX5080 Gaming OC - Corsair AX860 - PHANTEKS P600S
jok3r87 è offline  
Old 14-04-2007, 15:19   #2013
gianni1879
Bannato
 
L'Avatar di gianni1879
 
Iscritto dal: May 2004
Città: Sicily™ Trattative:Innumerevoli
Messaggi: 20620
Quote:
Originariamente inviato da jok3r87 Guarda i messaggi
Sulla X1950XTX e sulla X1950Pro il dissi raffredda anche la circuiteria di alimentazione, le immagini della versione OEM di R600 dimostrano che il dissipatore copre tutta la scheda, lo stesso accade con il prototipo di sistema a liquido installato sulla scheda. Il pad sulle ram non fa da isolante.
beh sulla x1900xt/xtx l'alimentazione è separata dal raffreddamento del core, sulla oem il dissy di r600 è completamente diverso rispetto alla versione retail, nessuno ancora può dire come saranno raffreddati.

ti assicuro che i pad sulla ram della x1900 con conducono calore
gianni1879 è offline  
Old 14-04-2007, 15:23   #2014
Alexkidd85
Senior Member
 
L'Avatar di Alexkidd85
 
Iscritto dal: Oct 2004
Città: Catania
Messaggi: 3466
Quote:
Originariamente inviato da TecnoWorld8 Guarda i messaggi
diciamo che voglio sperare che non si arrivi MAI ad una scheda che richiede 240W e che quindi ATi corra ai ripari con la versione a 65nm. 200W è già una cosa folle...secondo me. Mi piacerebbe sapere quanto una scheda di questo tipo consuma in idle. Ci sono molti PC che stanno accesi sempre...il mio compreso...bisognerà averne uno per giocare soltanto e uno da tenere acceso???
Non è una visione apocalittica.
Molte persona hanno il computer da game e il pc "mulo" da "serverino".
Io sono con un 3200+ e una x800gto2 ed è quasi sempre acceso,ho fastweb,800gb di hd e quando voglio giocare accendo il principale.
Ma ripeto,non sono l'unico...
__________________
CM STACKER STC-T01 + Cross Flow | Corsair AX850 GOLD | DFI Lanparty X58-T3eH8 | Intel 920 @ ??? | Corsair XMS3 1600MHZ CL8 @ ??? | Sapphire HD6970 2GB | SSD Intel 520 + WD 3TB SATA3 | AUDIO HD6970 | Harman Kardon AVR160 casse JBL | Samsung 32" Full HD | Logitech G150 + Roccat Kova [+] |My DARLING : SONY XPERIA Z3 COMPACT BLACK ITA
Alexkidd85 è offline  
Old 14-04-2007, 17:22   #2015
Free Gordon
Senior Member
 
L'Avatar di Free Gordon
 
Iscritto dal: Mar 2004
Città: Eporedia
Messaggi: 13454
Quote:
Originariamente inviato da Marko91 Guarda i messaggi
Con il prossimo chip totalmente nuovo, cioè R700 credo che le cose cambieranno e AMD introdurrà sicuramente qualche features innovativa per il risparmio energetico.
Che ne pensate di un sistema per disattivare o abbassare la tensione di ognuno dei 5 gruppi delle shader unit in modo indipendente uno dall'altro per risparmiare energia? E magari disattivare pure alcune rops e tmu se si gioca su risoluzioni sotto un certo livello, dove non c'è bisogno di una enorme banda passante.
Sono soluzioni che verranno a breve integrate in K10.


Quello che non si è capito, è che il motivo per cui R520 e R580 consumavano più di G70/71 è dovuto alla differente complessità dei circuiti delle due architetture.

Nessuno si è mai chiesto perchè NV40 consumava di più di R420, vero?
Bene, pensateci... e datavi una risposta.

ATI non ha bisogno di AMD per far consumare meno i suoi chip... semmai potrebbe ripensare alle scelte fatte in precedenza e mettere un occhio di riguardo in meno all'innovazione tecnologica (si sa che G70 non passa il testing SM3 di Ms, mentre le archi ATI lo fanno, pur mancando del vertex texturing.. un motivo ci sarà no? Per la stessa ragione le archi ATI sono usate nel folding@home mentre le nVidia no... -G80 ovviamente a parte-) e uno in più all'aspetto dei consumi.

Basta però osservare la situazione console (campo in cui ATI ha ormai 3 archi proprietarie alle spalle), dove i consumi sono davvero importanti (dato che i box sono piccoli e la dissipazione difficile) e vedere che cosa ha combinato.
Xenos è un chip da 330mln di transistor @500mhz, dissipato passivamente.
I suoi consumi si aggirano sui 35-40W in load, meno del corrispettivo nVidia montato sulla console concorrente.

Insomma, penso che il know-how per ridurre i consumi dei chip, non sia ad appannaggio della sola nVidia (in campo GPU) ma piuttosto che i consumi dipendano da scelte architetturali e quindi dalle possibilità fisiche di poterli ridurre, mantenendo però gli obiettivi prefissati, circa le prestazioni. ^_^
E queste ultime però, si possono giudicare solo sul lungo periodo.
__________________
AMD Ryzen 1700 - Asrock B450 GAMING-ITX/AC - G-Skill RipjawsV 2X8GB 2660mhz - Sapphire Pulse RX 570 ITX - Crucial MX500 m.2 - Corsair Vengeance 500W - Sharkoon Shark Zone C10 Mini ITX
Free Gordon è offline  
Old 14-04-2007, 17:27   #2016
gianni1879
Bannato
 
L'Avatar di gianni1879
 
Iscritto dal: May 2004
Città: Sicily™ Trattative:Innumerevoli
Messaggi: 20620
Quote:
Originariamente inviato da Free Gordon Guarda i messaggi
Quello che non si è capito, è che il motivo per cui R520 e R580 consumavano più di G70/71 è dovuto alla differente complessità dei circuiti delle due architetture.

Nessuno si è mai chiesto perchè NV40 consumava di più di R420, vero?
Bene, pensateci... e datavi una risposta.

ATI non ha bisogno di AMD per far consumare meno i suoi chip... semmai potrebbe ripensare alle scelte fatte in precedenza e mettere un occhio di riguardo in meno all'innovazione tecnologica (si sa che G70 non passa il testing SM3 di Ms, mentre le archi ATI lo fanno, pur mancando del vertex texturing.. un motivo ci sarà no? Per la stessa ragione le archi ATI sono usate nel folding@home mentre le nVidia no... -G80 ovviamente a parte-) e uno in più all'aspetto dei consumi.

Basta però osservare la situazione console (campo in cui ATI ha ormai 3 archi proprietarie alle spalle), dove i consumi sono davvero importanti (dato che i box sono piccoli e la dissipazione difficile) e vedere che cosa ha combinato.
Xenos è un chip da 330mln di transistor @500mhz, dissipato passivamente.
I suoi consumi si aggirano sui 35-40W in load, meno del corrispettivo nVidia montato sulla console concorrente.

Insomma, penso che il know-how per ridurre i consumi dei chip, non sia ad appannaggio della sola nVidia (in campo GPU) ma piuttosto che i consumi dipendano da scelte architetturali e quindi dalle possibilità fisiche di poterli ridurre, mantenendo però gli obiettivi prefissati, circa le prestazioni. ^_^
E queste ultime però, si possono giudicare solo sul lungo periodo.
hai perfettamente ragione
gianni1879 è offline  
Old 14-04-2007, 17:44   #2017
Deschutes
Senior Member
 
L'Avatar di Deschutes
 
Iscritto dal: May 2006
Messaggi: 416
Quote:
Originariamente inviato da Alexkidd85 Guarda i messaggi
Non è una visione apocalittica.
Molte persona hanno il computer da game e il pc "mulo" da "serverino".
Io sono con un 3200+ e una x800gto2 ed è quasi sempre acceso,ho fastweb,800gb di hd e quando voglio giocare accendo il principale.
Ma ripeto,non sono l'unico...
Pessima cosa almeno per me .....
Voglio 1 solo ottimo pc con cui poter fare tutto ... senza trovarmi un pc con consumi talmente stratosferici di watt da trovarmi costretto o quasi ad avere 2 pc 1 a basso consumo ed 1 senza limiti di watt x giocare.

Qua si parla di una scheda, che se confermato, si mangia 240 watt cioè più di un'intero pc di alto livello, tipo quad core Q6800 con svariati giga di ram una catasta di hard disk ecc

ciao
__________________
COMPRO Nokia N86 a prezzo accettabile mandare pvt, ciao
Deschutes è offline  
Old 14-04-2007, 18:27   #2018
fukka75
Senior Member
 
L'Avatar di fukka75
 
Iscritto dal: Jun 2003
Città: ovviamente la Capitale
Messaggi: 13122
Quote:
Originariamente inviato da TecnoWorld8 Guarda i messaggi
peccato solamente che questo gioco - come tutti gli altri - avrà bisogno di vista per girare con dx10

ma possibile che proprio non le facciano, le dx10 per XP???
Possibilissimo, visto che una versione di DX10 comporterebbe una riscrittura totale del kernel del sistema operativo
Tranquillo, tanto tra un anno avremo tutti Vista
__________________
Intel Corei7 3930k ** Asus Rampage IV Formula ** 4 x 4GB DDR3 G.Skill 1600MHz 8-8-8-24
Asus GTX970 Strix ** Samsung 840Pro 512GB ** Samsung 850 EVO 1TB ** Thermaltake Armor+
fukka75 è offline  
Old 14-04-2007, 18:28   #2019
The_SaN
Senior Member
 
L'Avatar di The_SaN
 
Iscritto dal: Jun 2005
Città: Vitória(ES), Brasile
Messaggi: 8152
Quote:
Originariamente inviato da Deschutes Guarda i messaggi
Pessima cosa almeno per me .....
Voglio 1 solo ottimo pc con cui poter fare tutto ... senza trovarmi un pc con consumi talmente stratosferici di watt da trovarmi costretto o quasi ad avere 2 pc 1 a basso consumo ed 1 senza limiti di watt x giocare.

Qua si parla di una scheda, che se confermato, si mangia 240 watt cioè più di un'intero pc di alto livello, tipo quad core Q6800 con svariati giga di ram una catasta di hard disk ecc

ciao

Ma di solito in idle le Ati non sono cosi male...
Guarda...non non fasciamoci la testa prima di romperla, non abbiamo ancora alcun dato concreto
The_SaN è offline  
Old 14-04-2007, 18:37   #2020
davide155
Senior Member
 
L'Avatar di davide155
 
Iscritto dal: Jan 2006
Città: Firenze
Messaggi: 18096
Quote:
Originariamente inviato da The_SaN Guarda i messaggi
Ma di solito in idle le Ati non sono cosi male...
Guarda...non non fasciamoci la testa prima di romperla, non abbiamo ancora alcun dato concreto
per l'ennesima volta viene riproposta questa frase e per l'ennesima volta la quoto.
E' inutile squartarsi adesso perchè i nostri ali non ce la faranno a reggere.......ancora non sappiamo nemmeno quanto va veloce......figuriamoci se è certo che consuma 240watt
__________________
Intel i9 [email protected] allcore liquid cooled//Corsair Vengeance RGB 2x16gb 3600mhz DDR4//RTX 5090 Astral liquid cooled//Asus Strix Z690 Gaming-A//Samsung 990pro Pciex4.0 2tb//Thermaltake ThoughPower 850w//LG C4 oled 42" 144hz 4k//Aquaero 6XT//Edifier S360DB with Topping Dx3Pro+
davide155 è offline  
 Discussione Chiusa


Recensione Google Pixel 10a, si migliora poco ma è sempre un'ottima scelta Recensione Google Pixel 10a, si migliora poco ma...
6G, da rete che trasporta dati a rete intelligente: Qualcomm accelera al MWC 2026 6G, da rete che trasporta dati a rete intelligen...
CHUWI CoreBook Air alla prova: design premium, buona autonomia e qualche compromesso CHUWI CoreBook Air alla prova: design premium, b...
Roborock Saros 20: il robot preciso e molto sottile Roborock Saros 20: il robot preciso e molto sott...
ASUS ROG Kithara: quando HIFIMAN incontra il gaming con driver planari da 100mm ASUS ROG Kithara: quando HIFIMAN incontra il gam...
Il Senato statunitense vorrebbe prolunga...
Leica aggiorna lo Store & Galerie Mi...
Artemis II: risolto il problema al razzo...
Hyundai e Kia investono in Qnovo: ottimi...
iPhone 17e sbarca su Amazon (con consegn...
Aptera prossima alla produzione in serie...
Amazon svela le protagoniste della serie...
Nuovi Apple MacBook Pro con M5 Pro e M5 ...
Wind Tre sceglie Ericsson per modernizza...
Il conflitto in Medio Oriente manda in f...
Le soluzioni di Google Cloud per portare...
OPPO e MediaTek: l'intelligenza artifici...
Dopo i cheater, Activision si scaglia co...
'Super-uomo' o incubo tecnologico? Cosa ...
Arriva la Blade Battery 2.0 di BYD, 1.00...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 00:38.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v