Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet!
Il REDMAGIC Astra Gaming Tablet rappresenta una rivoluzione nel gaming portatile, combinando un display OLED da 9,06 pollici a 165Hz con il potente Snapdragon 8 Elite e un innovativo sistema di raffreddamento Liquid Metal 2.0 in un form factor compatto da 370 grammi. Si posiziona come il tablet gaming più completo della categoria, offrendo un'esperienza di gioco senza compromessi in mobilità.
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2
Dopo un mese di utilizzo intensivo e l'analisi di oltre 50 scatti, l'articolo offre una panoramica approfondita di Nintendo Switch 2. Vengono esaminate le caratteristiche che la definiscono, con un focus sulle nuove funzionalità e un riepilogo dettagliato delle specifiche tecniche che ne determinano le prestazioni
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 19-02-2014, 10:12   #41
Fabio310
Senior Member
 
Iscritto dal: Mar 2000
Città: Napoli (Pozzuoli)
Messaggi: 1528
50w contro 150w..
quanto sono i consumi differenti..
0.86 centesimi per 3 ore al giorno in un mese intero.. Almeno su recensioni in spagna..
quindi tutta sta fuffa per risparmiare 1 euro al mese, avere meno mantle, meno prestazioni, meno open cl.. ma almeno quando mi scatta il gioco potrei dire.. guarda che efficienza ejeje
non facciamoci fregare dal marcheting, non parliamo di 50-500watt e poi ste schede sono quasi sempre in idle nei pc..
ho sempre la senzione che quando una scheda é una cagata sparano consumi, temperature ecc.ecc. ma quel che serve a una scheda gaming é che sia veloce ed abbia il miglior rapporto prezzo/prestazioni
Fabio310 è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 10:58   #42
Raghnar-The coWolf-
Senior Member
 
L'Avatar di Raghnar-The coWolf-
 
Iscritto dal: Oct 2008
Messaggi: 6948
Quote:
Originariamente inviato da network87 Guarda i messaggi
60watt di consumo e niente connettori sono sempre stati il mio sogno (9600gt green, gt240, gts 450, gtx 650 liscia...), questa nuova architettura nvidia sembra davvero promettente, anche se queste 2 schede sfruttano sempre i 28nm...
non vedo l'ora di vedere le declinazioni di maxwell per il mobile, magari a 20nm come promesso
certo che come nome in codice nVidia potrebbe trovare qualcosa di + simpatico, specialmente per me che non ho mai amato l'elettrotecnica, 'sti nome mi ricordano troppo le sue leggi
ovviamente non sono un fanboy nvidia!
Hanno nomi di scienziati. Tesla, Fermi, Maxwell...etc...

Comunque concordo, le prestazioni per queste potenze sono decisamente interessanti, imho una novità molto più interessante sia delle R7 che della GTX Titan Black, anche se magari ciò non si traduce in un best buy (che dipende più dalle esigenze).

Alla fine comunque vorrei far notare che con il prezzo al kWh in Italia con 30W di differenza si recuperano relativamente in fretta in 20€ (circa 1000 ore)
Raghnar-The coWolf- è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 11:03   #43
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3552
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
1) i miglioramenti ci sono stati è innegabile, ma GCN è ancora indiscutibilmente la migliore quando si parla di prestazioni per watt.
Rispetto alla generazione precedente le prestazioni per watt sono praticamente raddoppiate. Ma non bisogna dimenticare l'enorme handicap che avevano le prime soluzioni kepler nel gpgpu rispetto alla concorrenza, e persino confrontate con le vecchie soluzioni Fermi non è che fosse tutto rose e fiori.
2) i core Arm ancora non ci sono. Se il software HSA tarda ad arrivare cosa ti fa pensare che oggi siano disponibili software in grado di sfruttare i core arm di una scheda che ancora non esiste.
Poi da quando AMD ha introdotto HyperTrasport nel lontano 2003 ho sempre visto come LA soluzione per i possibili coprocessori.
Come le misuri le performace per watt? Con le applicazioni OpenCL? Perché se non erro Kepler per ora mantiene il record di GFlops/W, anche rispetto alle Xeon Phi di Intel che sono costruite con un PP più avanzato.
Se poi i tuoi riferimenti sono SiSandra, be', sì, AMD ha un vantaggio infinito.

Per quanto riguarda i core ARM, anche a te è sfuggito un piccolo particolare: nvidia non è AMD. nvidia non aspetta che terze parti sviluppino soluzioni per lei. nvidia sviluppa quasi tutto in casa, il che vuol dire che se mette dei core ARM dentro le sue GPU ha anche il piano di sviluppo SW per supportarli. Le librerie CUDA saranno sicuramentre aggiornate per sfruttarli.
Ora io non so cosa possono fare questi core ARM né come verranno sfruttati, ma non è detto che non possano aiutare a dare un boost anche in campo puramente di accelerazione 3D sgravando la CPU e diminuendo di brutto le latenze, quindi "basterebbe" aggiornare anche i driver DirectX.
'sto miracoloso (quanto fantomatico) HSA ha veramente mandato in corto circuito i neuroni di molti, mi sa.

Quote:
Originariamente inviato da Fabio310 Guarda i messaggi
50w contro 150w..
quanto sono i consumi differenti..
0.86 centesimi per 3 ore al giorno in un mese intero.. Almeno su recensioni in spagna..
quindi tutta sta fuffa per risparmiare 1 euro al mese, avere meno mantle, meno prestazioni, meno open cl.. ma almeno quando mi scatta il gioco potrei dire.. guarda che efficienza ejeje
non facciamoci fregare dal marcheting, non parliamo di 50-500watt e poi ste schede sono quasi sempre in idle nei pc..
ho sempre la senzione che quando una scheda é una cagata sparano consumi, temperature ecc.ecc. ma quel che serve a una scheda gaming é che sia veloce ed abbia il miglior rapporto prezzo/prestazioni
2 cose.
1) E' una scheda low end come ce ne sono sempre state. Come tutte le schede low end fa cagare se raffrontata alle mattonelle da mezzo Km quadro e 300W di consumi. Ma, per quanto tu le trovi schifosissime, le schede low end vendono come il pane e quindi vedere che con le stesse prestazioni sono passati a dimezzare i consumi senza cambiare il PP significa che non si parla di fuffa per nulla.
2) Ti sfugge il corollario dell'aumento di efficienza, sia in termini di consumi che di spazio/transistor: le GPU più grandi, che sono limitate dai consumi, a 300W potranno generare una potenza di calcolo nettamente maggiore perché potranno integrare più risorse. Oppure, a parità di performance con quelle odierne possono consumare molto meno. O (in teoria, il mercato è altra cosa) costare di meno perché realizzate con meno silicio.
Se non arrivi a comprendere queste implicazioni, non è colpa del marketing "fuffa" che tanto accusi.
La necessità del rapporto prezzo/prestazioni per una scheda gaming è un problema ricorrente che si pone solo una parte dell'utenza: quella che non arriva all'uva e si accontenta dei lamponi che crescono più in basso.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 11:20   #44
MiKeLezZ
Senior Member
 
L'Avatar di MiKeLezZ
 
Iscritto dal: Jul 2003
Messaggi: 26788
Quote:
Originariamente inviato da Fabio310 Guarda i messaggi
50w contro 150w..
quanto sono i consumi differenti..
0.86 centesimi per 3 ore al giorno in un mese intero.. Almeno su recensioni in spagna..
quindi tutta sta fuffa per risparmiare 1 euro al mese, avere meno mantle, meno prestazioni, meno open cl.. ma almeno quando mi scatta il gioco potrei dire.. guarda che efficienza ejeje
non facciamoci fregare dal marcheting, non parliamo di 50-500watt e poi ste schede sono quasi sempre in idle nei pc..
ho sempre la senzione che quando una scheda é una cagata sparano consumi, temperature ecc.ecc. ma quel che serve a una scheda gaming é che sia veloce ed abbia il miglior rapporto prezzo/prestazioni
Io guardo la sostanza, sono schede per videogiocare. Qua ci sta una scheda che non da problemi con i giochi, ha driver stabili, consuma poco. Quindi il risparmio di prezzo non me lo brucio a farmi il fegato marcio con malfunzionamenti o in corrente. L'hai mai sentito il detto chi più spende meno spende.

p.s. 3 ore per 365 giorni fa 22 euro all'anno. L'eventuale differenza di prezzo te la ripaghi tutta e dopo ci guadagni pure. Inoltre meno consumi significa anche meno calore, più durata e più silenziosità.
MiKeLezZ è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 11:44   #45
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4353
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
voci di corridorio insistono nel dire che il PP adottato pur essendo a 28nm non è HP, bensì HPm...
a dare maggior peso a queste informazioni ci sono diversi fattori:
1) l'architettura maxwell ha una complessità maggiore di quella kepler.
il guadagno reale delle prestazioni per transistor è pari al 13%..nulla di incredibile, siamo ai livelli del passaggio da vliw-5 a vliw4 per intenderci.

2) nvidia è riuscita ad infilare la bellezza di 12,6 Mtransistor/mmq contro gli 11,2/mmq. siamo a +12%.

3) quindi le prestazioni per mmq sono salite di un fattore non trascurabile, +27%

4) allo stesso tempo il consumo per transistor si è ridotto drasticamente: -40%
sono sicuro al 99% che è cambiato il PP...
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Rispetto alla 650Ti ha almeno il 30% in meno di roba, consuma pur il 30% in meno e ha le stesse perfomance. I
quanto sei bravo prendi la 650TI che ha un chip per buona parte disabilitato e prendi le caratteristiche del chip al completo e non le sue prestazioni, che sono quelle fornite dalla 660.
Ora è vero che gk106 ha il 35% più risorse(transistor) di un gm107, ma le prestazioni non sono esattamente le stesse (+23%)
come dicevo poco sopra...il miglioramento c'è stato ma non è incredibile se non guardiamo i consumi.

Ultima modifica di tuttodigitale : 19-02-2014 alle 13:28. Motivo: sintetizzo
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 12:15   #46
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3552
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
quanto sei bravo prendi la 650TI che ha un chip per buona parte disabilitato e prendi le caratteristiche del chip al completo e non le sue prestazioni, che sono quelle fornite dalla 660.
Ora è vero che gk106 ha il 35% più risorse(transistor) di un gm107, ma le prestazioni non sono esattamente le stesse (+23%)

come dicevo poco sopra...il miglioramento c'è stato ma non è incredibile se non guardiamo i consumi.
Sì lo so che sono bravo, tu invece un po' meno perché mixi tutto secondo come ti pare e piace.
Se fai una statistica sulle prestazioni pure, che un chip sia castrato o meno poco conta: fai i conti di quante risorse uno ha e quante ne ha l'altro e fai il rapporto.
Se fai un'analisi di consumi hai ragione sul fatto che il GK106 in considerazione è castrato e quindi non è il massimo della comparazione. Ma le 650Ti/Ti Boost consumano comunque meno delle 660 con Gk106 completo e il 23% di performance in più è ottenuto con oltre il doppio del TDP e il 50% in più di silicio.
Se guardo ai risultati concreti, oggi ho le stesse prestazioni di una 650 Ti Boost con quasi metà consumi e il risparmio del 50% di area.
Se faccio un paragone con il 660 completo ed estrapolo per le mattonelle più grandi (cosa che non dico sia vera, ma comunque è un'operazione più che lecita e fattibile) posso prevedere una mattonella da 550mm^2 (grande quindi come il GK110, GF110, GF110 e il G200) che contiene più di 3000 shader in 24 SMM (non più 15), una capacità di calcolo più che tripla (vedere i test GPGPU di questa 750Ti) e con un consumo di circa 150W. Il tutto usando i 28nm (che siano una nuova versione o meno poco conta).
A me sembra un miglioramento notevole, certamente migliore di quello che è stato proposto con Hawaii che non ha modificato nulla in termini di efficienza ma è stato solo una nuova mattonella con tanti shader (e Watt) in più. Se i prossimi mesi saranno davvero caratterizzati dal mantenimento del processo produttivo a 28nm, mi sa che "questo non incredibile vantaggio" come lo hai definito tu porterà grandissimi grattacapi a AMD. A meno che questa non abbia in serbo qualcosa d'altro che per ora ha tenuto super segretissimo o che nvidia non voglia fare i più grandi chip Maxwell a 28nm per evitare costi aggiuntivi.
Solo il futuro ce lo dirà, ma non neghiamo che questi "insignificanti vantaggi" aprono diversi scenari che non si sospettavano prima della presentazione di questo GM107.

Ultima modifica di CrapaDiLegno : 19-02-2014 alle 12:23. Motivo: Modificato il numero di shader: usato il rapporto di guadagno sui nuovi SMX invece che di superficie.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 12:36   #47
narnonet
Senior Member
 
L'Avatar di narnonet
 
Iscritto dal: Feb 2003
Città: 134340 Pluto - [VL]
Messaggi: 8520
Domandina ina ina...

Se montassi la GTX 750ti 2GB su di un E8400 con 8Gb di ram con monitor da 1680x1050, dite che sarebbe cpu limited oppure potrebbe essere un upgrade sensato?

Nel caso che VGA proponete voi che non sia cpu limited con spesa massimo di 150€?

Ciao e Grazie
narnonet è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 12:43   #48
homoinformatico
Senior Member
 
Iscritto dal: Jun 2004
Messaggi: 1367
Quote:
Originariamente inviato da anac Guarda i messaggi
per me che gioco a 1920*1080 la scelta dovrebbe cadere sulla 750ti dato che consuma meno corrente ed è meno rumorosa e le prestazioni sono quasi uguali e la differenza di 10-15 euro contano molto meno rispetto al risparmio sulla bolletta

PS : io adesso ho una nvidia 460gtx ne vale la pena fare il cambio ?
dato che non ti ha risposto nessuno cercherò di darti qualche indicazione:

nel treddo dell'ungine heaven un tizio ha benchmarcato una 650 ti ottenendo 461 (mi pare). Con le stesse opzioni facevo 379 con la gtx 460 da un giga. Inoltre un po' di tempo fa ho montato un pc ad un amico e gli ho messo la 650ti.
Sebbene con un Pentium dual core (ivy bridge) la sensazione era che la sua scheda andasse un poco meglio della mia.

A spanne non credo ci siano più del 30% di prestazioni fra 750ti e 460gtx da un giga. in più e sempre a spanne penso che quel 30% non siano tanto nella potenza "bruta" quanto nel supporto per le puttanate nuove (leggasi che a spanne i giochi non nuovissimi probabilmente avranno una differenza ancora inferiore). Probabilmente va un poco peggio di una 560ti.

Per cui se dovessi cambiare gpu (e volessi restare con nvidia) terrei d'occhio il mercatino per vedere se qualcuno vende una 660ti o una 760 a buon prezzo.

il tutto sempre secondo me

Ultima modifica di homoinformatico : 19-02-2014 alle 12:46.
homoinformatico è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 12:44   #49
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4353
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Come le misuri le performace per watt? Con le applicazioni OpenCL? Perché se non erro Kepler per ora mantiene il record di GFlops/W, anche rispetto alle Xeon Phi di Intel che sono costruite con un PP più avanzato..
con le applicazioni e i benchmark opencl, mi sembra ovvio. I GFLOPS teorici sono per l'appunto teorici.
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Per quanto riguarda i core ARM, anche a te è sfuggito un piccolo particolare: nvidia non è AMD.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Come le misuri le performace per watt? Con le applicazioni OpenCL? Perché se non erro Kepler per ora mantiene il record di GFlops/W, anche rispetto alle Xeon Phi di Intel che sono costruite con un PP più avanzato..
con le applicazioni e i benchmark opencl, mi sembra ovvio. I GFLOPS teorici sono per l'appunto teorici.
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
nvidia non aspetta che terze parti sviluppino soluzioni per lei.
Dimenticavo che nvidia è anche un grande produttore di cpu (o era AMD?)
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
nvidia sviluppa quasi tutto in casa
tranne una parte essenziale del prossimo HW?
[
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
il che vuol dire che se mette dei core ARM dentro le sue GPU ha anche il piano di sviluppo SW per supportarli. Le librerie CUDA saranno sicuramentre aggiornate per sfruttarli.
certo se mette dei core non progettati da lei, è chiaro che ha un piano per sfruttarli, figurati se si mettesse a progettare gpu e cpu proprio con le intenzioni di farle lavorare insieme.
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Le librerie CUDA saranno sicuramentre aggiornate per sfruttarli.
ci mancherebbe altro...Compilatori compatibili con HSA sono disponibili già da 2-3 mesi, ma il software necessita di tempo per essere creato.
Certe uscite
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ora io non so cosa possono fare questi core ARM né come verranno sfruttati,
è HSA su PCI express, niente di più niente di meno.
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
ma non è detto che non possano aiutare a dare un boost anche in campo puramente di accelerazione 3D sgravando la CPU e diminuendo di brutto le latenze,
Abbiamo discusso di questa assurda possibilità.
E' assurda perchè nonostante kaveri abbia di fatto annullato la disparià di trattamento tra cpu e gpu, le latenze delle dx11 rimangono....
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
quindi "basterebbe" aggiornare anche i driver DirectX.
'sto miracoloso (quanto fantomatico) HSA ha veramente mandato in corto circuito i neuroni di molti, mi sa.
ricordo che le latenze con le directx 10 sono state ridotte dell'ordine del 30%...nonostante ciò si è continuato per anni a fare giochi dx9, perchè le console erano compatibili con queste librerie. Quindi solo con la prossima generazione di console (2022?) si potrà parlare concretamente di nuove librerie...

PS parlare in quel modo di hUMA, quando è la tecnologia più innovativa in campo informatico degli ultimi 15 anni.....
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 13:08   #50
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4353
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ma le 650Ti/Ti Boost consumano comunque meno delle 660 con Gk106 completo e il 23% di performance in più è ottenuto con oltre il doppio del TDP e il 50% in più di silicio.
sui consumi ho fatto un discorso a parte
e sulle prestazioni per mmq ho detto questo
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
le prestazioni per mmq sono salite di un fattore non trascurabile, +27%
cosa ho detto di diverso...
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Sì lo so che sono bravo, tu invece un po' meno perché mixi tutto secondo come ti pare e piace.
Se fai una statistica sulle prestazioni pure, che un chip sia castrato o meno poco conta: fai i conti di quante risorse uno ha e quante ne ha l'altro e fai il rapporto.
per risorse io intendo i transistor, e di solito questo valore è riferito al chip intero..
Tu parli di core, ma ometti il fatto che maxwell necessiti di un +32% di transistor in più a parità di forza bruta.
Ti ho già detto che con il passaggio da kepler a maxwell le prestazioni a parità di risorse (transistor) a parità di clock sono aumentate del 13%. Punto.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
A me sembra un miglioramento notevole....
su questo non c'è dubbio, ma come ho detto più su è probabile che sia dovuto al PP usato e non a Maxwell che migliora le prestazioni per transistor solo del 13%...
Quello che voglio dirti è se il singolo transistor consuma la metà mi riesce difficile pensare che sia merito dell'architettura...
Non è mai successo. IMHO, il PP è cambiato anche se il nanometraggio è rimasto invariato.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 13:11   #51
task-
Senior Member
 
Iscritto dal: Feb 2004
Messaggi: 497
La cosa più divertente di tutto questo è che queste nuove schede di fascia bassa permettono OGGI di raggiungere la grafica delle console nex gen(qui si paral di xbox ma la PS4 non farebbe certo meglio):

http://www.gamespot.com/articles/149.../1100-6417813/

-_-

La grafica dei giochi resterà zavorrata a grafica "non al passo coi tempi" ancora per anni e anni.
task- è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 13:38   #52
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3552
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
con le applicazioni e i benchmark opencl, mi sembra ovvio. I GFLOPS teorici sono per l'appunto teorici.



con le applicazioni e i benchmark opencl, mi sembra ovvio. I GFLOPS teorici sono per l'appunto teorici.

Dimenticavo che nvidia è anche un grande produttore di cpu (o era AMD?)

tranne una parte essenziale del prossimo HW?
[

certo se mette dei core non progettati da lei, è chiaro che ha un piano per sfruttarli, figurati se si mettesse a progettare gpu e cpu proprio con le intenzioni di farle lavorare insieme.

ci mancherebbe altro...Compilatori compatibili con HSA sono disponibili già da 2-3 mesi, ma il software necessita di tempo per essere creato.
Certe uscite

è HSA su PCI express, niente di più niente di meno.

Abbiamo discusso di questa assurda possibilità.
E' assurda perchè nonostante kaveri abbia di fatto annullato la disparià di trattamento tra cpu e gpu, le latenze delle dx11 rimangono....

ricordo che le latenze con le directx 10 sono state ridotte dell'ordine del 30%...nonostante ciò si è continuato per anni a fare giochi dx9, perchè le console erano compatibili con queste librerie. Quindi solo con la prossima generazione di console (2022?) si potrà parlare concretamente di nuove librerie...

PS parlare in quel modo di hUMA, quando è la tecnologia più innovativa in campo informatico degli ultimi 15 anni.....
Huh? Non ti capisco davvero.
I core ARM sono ARM. Che vuol dire che se non li progetta nvidia non li può sfruttare? A parte il fatto che non sai se sono core standard o rifatti da nvidia per essere più efficienti in questo o quel campo (consumi/area/prestazioni) o integrano estensioni particolari per fare lavori particolari (ARM supporta nativamente unità di calcolo esterne di diversa natura, lo sapevi?).
Detto questo, ancora non ho capito cosa non ti è chiaro che se ci sono potranno essere sfruttati da nvidia direttamente e non lasciate a carico del programmatore tramite accesso diretto. Cioè, è possibile che siano messe a disposizione anche esternamente alla GPU, ma non è un dogma, e come per quasi tutto quello che c'è nella GPU potrebbero benissimo essere delle unità che si occupano di fare compiti in maniera totalmente autonoma a cui il programmatore non può avere accesso diretto (forse il programmatore ha accesso all'unità che fa lo scheduler dei thread all'interno della GPU?).
HSA è una cosa, integrare delle unità di calcolo seriale in un dispositivo che per natura è solo parallelo è un'altra cosa.
Ritorno a dire quindi che non sapendo come sono integrati e cosa facciano di preciso è un po' dura inventarsi che solo tramite HSA su PCI siano sfruttabili.
O che siano né più ne meno HSA su PCI. HSA qui non c'entra un bel niente.
Certamente non saranno unità messe lì completamente staccate dal resto della GPU, come appunto fossero dei coprocessori montati su un'altra scheda PCI. Quali vantaggi darebbero?
Poi fai confusione tra HSA e hUMA. Sono 2 cose distinte. HSA è fuffa di un'azienda che non ha altro da offrire per tentare di recuperare il gap che si è creato tra lei e la concorrenza. E' un modo di dire, noi abbiamo questa possiblità, non valutando il fatto che ha utilità quasi pari a zero. Se la mattina bevi latte e marketing, allora ti ingrassi bene di queste cose. Se invece la mattina insieme al latte studi un po' di informatica (generalmente parlando) sai che HSA applicata alla sola GPU copre una quantità di soluzioni pari a quelle delle tue dita di una mano. E sono pressoché inutili sui PC consumer.

Qui si parla di usare le capacità di calcolo seriale di uno (o più componenti, non so quanti siano questi core che saranno integrati né che potenza/capacità avranno) per aiutare un altro componente che esegue istruzioni in maniera efficiente solo parallelamente.
Far fare un salto o prendere una decisione di flusso ad una GPU è un trauma. Non c'è hUMA (che non è un'invenzione AMD e quindi non è la più grande innovazione degli ultimi 15 anni, al massimo è un ritorno al passato dimenticato dal marketing di Intel e di AMD stessa che in tutto questo tempo si sono concentrate a fare architetture monolitiche general purpose per risolvere tutto il pensabile in maniera estremamente inefficente) o HSA (pure questa una nuova etichetta appiccicata a qualcosa che esiste da tempo immemore) che tenga in questo caso. Le GPU fino a ieri erano fatte così e quei problemi hanno.
Rivedere le capacità intrinseche delle architetture estremamente (ed esclusivamente) parallele è un passo in avanti da quando si è deciso di usare le unità grafiche per fare calcoli (che avveniva ben prima di R600, G80, CUDA, o OpenCL in maniera estremamente inefficiente).
Quali siano i reali vantaggi che porterà questa innovazione ancora non lo sappiamo, ma ripeto, non è questione di usare i core ARM (o qualsiasi altra risorsa aggiunta) tramite esplicito codice HSA ma di fare in modo che queste unità diano automaticamente una mano agli SMM quando questi hanno evidenti problemi ad eseguire parti di codice (o di un algoritmo) in maniera efficiente.

Il fatto che tutti parlano di HSA come fosse la panacea di tutti i mali e invece declassino queste innovazioni come una (inutile) parte di HSA mi sembra un'assurdità. O non si è capito nulla, o si sta cercando di includere queste innvazioni nell'inutilità di HSA per come è stata presentata fino ad oggi.

Ebbene, non credo che nvidia abbia lavorato tutti questi anni sul progetto Denver per aggiungere dei core ARM semplicemente collegati ad un bus PCI per dire: eccoli a voi, fatene quello che volete, trovate voi il modo di sfruttarli con le altre unità di calcolo. Non ci avrebbe messo così tanto tempo e non lo avrebbe sicuramente fatto se non fosse stata sicura che questa aggiunta porta davvero ad aumentare l'efficienza della sua architettura.

I benchmark che portano Kepler ad avere il migliore rapporto prestazini/Watt sono quelli usati sui server HPC che sono tutt'altra cosa rispetto a quelli fatti in OpenCL e dove le GPU sono usate per ben altra cosa che fare coin mining.
Per quello ho parlato di confronto anche con la Xeon Phi.
Ma vabbè, torna pure ad aspettare che HSA faccia qualcosa di utile mentre il resto dell'umanità nel frattempo gode dei risultati delle ricerche fatte con qualcosa che funziona per davvero.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 14:00   #53
Maury
Senior Member
 
L'Avatar di Maury
 
Iscritto dal: Feb 2000
Messaggi: 11107
Quote:
Originariamente inviato da task- Guarda i messaggi
La cosa più divertente di tutto questo è che queste nuove schede di fascia bassa permettono OGGI di raggiungere la grafica delle console nex gen(qui si paral di xbox ma la PS4 non farebbe certo meglio):

http://www.gamespot.com/articles/149.../1100-6417813/

-_-

La grafica dei giochi resterà zavorrata a grafica "non al passo coi tempi" ancora per anni e anni.
Aspetta a parlare, vediamo i giochi sviluppati con engine nati per console, non porting e affini. Gia The Order per PS4 fa vedere cose assurde...
__________________
PC 1 : |NZXT 510i|MSI PRO Z690 A|I5 13600kf@5.7 Ghz (Pcore) 4.5 Ghz (Ecore)|AIO ENDORFY NAVI F280|32 GB BALLISTIX 3600 cl 14 g1|GIGABYTE 4070 SUPER AERO OC|RM850X|850 EVO 250|860 EVO 1TB|NVMe XPG-1TB||LG OLED C1 - 55 |

PC 2 : |Itek Vertibra Q210|MSI PRO B660M-A|I5 12500|32 GB KINGSTON RENEGADE 3600|ARC A770 LE 16 Gb|MWE 750w|

ARC 770 LE 16 Gb Vs RTX 3070 - CLICCA QUI
Maury è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 14:03   #54
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3552
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
sui consumi ho fatto un discorso a parte
e sulle prestazioni per mmq ho detto questo

cosa ho detto di diverso...

per risorse io intendo i transistor, e di solito questo valore è riferito al chip intero..
Tu parli di core, ma ometti il fatto che maxwell necessiti di un +32% di transistor in più a parità di forza bruta.
Ti ho già detto che con il passaggio da kepler a maxwell le prestazioni a parità di risorse (transistor) a parità di clock sono aumentate del 13%. Punto.


su questo non c'è dubbio, ma come ho detto più su è probabile che sia dovuto al PP usato e non a Maxwell che migliora le prestazioni per transistor solo del 13%...
Quello che voglio dirti è se il singolo transistor consuma la metà mi riesce difficile pensare che sia merito dell'architettura...
Non è mai successo. IMHO, il PP è cambiato anche se il nanometraggio è rimasto invariato.
Oh santo cielo, quano è difficile farsi capire da qualcuno che non vuole capire.
ll tuo 13% è puramente teorico (proprio tu che parli di cose teoriche vs quelle reali). Io vedo una GPU che monta il 20% in più di shader, il 50% in più di ROP, il 60% in più di TMU e ha un bus il 50% più grande per una banda complessiva superiore del 70% che riesce a malapena stare sopra il GM107. (non faccio confronti tra le dimensioni perché come hai ben detto uno è un chip castrato, mentre l'altro no). Lascio a te il compito a casa di fare il confronto con il GK106 completo e il suo 23% in più di performace.
Alcuni bench GPGPU mostrano che la nuova GPU va almeno il doppio rispetto al 660 completo. E consuma la metà.
Di cosa stiamo parlando? Del 13% sulla carta con il calcolo transistor/spazio o del fatto che tutta la nuova architettura a parità di prestazioni fa risparmiare il 33% del silicio e dimezza i consumi?
Prendi un GK110, applicaci la stessa equazione che ti porta dal GK107 al GM107 e vedi cosa ottieni. Che poi fai il finto tonto e dici, si ma vabbè, nulla di che... cosa ha guadagnato AMD 2 mesi fa passando da GCN1 a GCN2 (Tahiti vs Hawaii)? Nulla, solo più unità di calcolo in più spazio per più consumi, tutto proprozionalmente.
Qui si dice che se va male si hanno il 50% in più di prestazioni sulla stessa area con consumi quasi dimezzati usando lo stesso PP.. cioè più di quanto AMD abbia fatto tra VLIW e GCN con l'aiuto di uno shrinking e si viene a dire: ma no, non è poi così una grande cosa, tutto nella normalità.
Ebbena, come detto, a meno che AMD non abbia in serbo qualcosa di nascosto e di analogo, questo "piccolo" aumento di efficienza diventerà un grande problema per lei.

Tutti che elogiano Mantle che porterà presunti vantaggi in uno o due titoli di punta e si gira la testa quando si vede questo tipo di performace che andranno a influire su tutti i titoli non necessariamente basati su un singolo motore ottimizzato per una particolare architettura.
E non abbiamo ancora visto cosa ci riservano le future GPU con i core ARM integrati, ma per correttezza, probabilmente quelli li vedremo tra molto tempo, al pari di quando vedremo queta benedetta API MAntle maturare per rendere reale almeno in parte quello che è stato promesso.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 15:53   #55
carlottoIIx6
Senior Member
 
L'Avatar di carlottoIIx6
 
Iscritto dal: Sep 2009
Messaggi: 5582
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
Non riesco a capire se lo fai apposta o la pensi realmente così? Cosa c'entra con il mobile l'architettura descritta nell'articolo? Cioè aumentano la cache per il mobile? Sfruttano meglio i blocchi per il mobile? E poi se qualcuno ha fatto il massimo con i 28nm quella è nVidia, ti ricordo che ha comunque un chip più grosso che anche attivando tutti i moduli consuma meno e va di più di casa AMD.

http://www.anandtech.com/show/7764/t...review-maxwell
"What is that fundamental shift? As we found out back at NVIDIA’s CES 2014 press conference, Maxwell is the first NVIDIA GPU that started out as a “mobile first” design, marking a significant change in NVIDIA’s product design philosophy. "
come vedi non sono io a dirlo, ma nvidia stessa, che sta facendo convergere tegra k1 a maxwell, e quindi avere un tutto uno.
che nvidia abbia fatto bene lo so, ma mi chiedo se i pressi siano dovuti alle dimensioni del cip o se piuttosto ai costi di proggetazione, perché comunque li vendono più cari.
__________________
zen = multi in one
carlottoIIx6 è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 16:48   #56
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4353
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Oh santo cielo, quano è difficile farsi capire da qualcuno che non vuole capire.
ll tuo 13% è puramente teorico (proprio tu che parli di cose teoriche vs quelle reali). Io vedo una GPU che monta il 20% in più di shader, il 50% in più di ROP, il 60% in più di TMU e ha un bus il 50% più grande per una banda complessiva superiore del 70% che riesce a malapena stare sopra il GM107. (non faccio confronti tra le dimensioni perché come hai ben detto uno è un chip castrato, mentre l'altro no).
sei stupido o ci fai?
Non ti è venuto in mente che per avere maggiori prestazioni per core in maxwell, nvidia è dovuta rincorrere ad un numero maggiore di transistor a shader: +32% vedi gk107 vs gm107.
Tutti i numeri che hai sparato sopra dicono solo che la nuova architettura usa maggiormente le risorse a disposizione, punto.
Ho fatto un calcolo veloce ed è venuto fuori che a parità di transistor maxwell è più veloce del 13% nel gaming.
Non è tanto, ma è pur sempre un miglioramento tangibile.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Alcuni bench GPGPU mostrano che la nuova GPU va almeno il doppio rispetto al 660 completo. E consuma la metà.
mi sembra di aver affermato che i miglioramenti ci sono stati.
Ma è divertente il fatto che continui ad omettere la superiorià di gcn anche nei confronti di maxwell

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Qui si dice che se va male si hanno il 50% in più di prestazioni sulla stessa area con consumi quasi dimezzati usando lo stesso PP.. cioè più di quanto AMD abbia fatto tra VLIW e GCN con l'aiuto di uno shrinking e si viene a dire: ma no, non è poi così una grande cosa, tutto nella normalità.
Ebbena, come detto, a meno che AMD non abbia in serbo qualcosa di nascosto e di analogo, questo "piccolo" aumento di efficienza diventerà un grande problema per lei.
+27% di prestazioni per mmq diventano magicamente +50% per i fanboy.

quello che mi lascia interdetto è proprio il dimezzamento o quasi del consumo...come ha fatto nvidia a fare consumare ogni singolo transistor la metà...
Tu continui a sottolineare che sta usando i 28nm HP, ma più fonti parlano di 28nm HPm...quel che è certo è che nvidia non ha smentito.

Ultima modifica di tuttodigitale : 19-02-2014 alle 16:52.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 16:49   #57
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4353
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Huh? Non ti capisco davvero.
sono stato chiarissimo.
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
.
I core ARM sono ARM. Che vuol dire che se non li progetta nvidia non li può sfruttare?
ho detto questo? Mi sembra di no.
Ho semplicemente ironizzato sul fatto, che tu sei convinto che nvidia voglia sfruttare cpu più di quanto voglia AMD la cpu l'ha progettato proprio tenendo in mente l'APU.
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
A parte il fatto che non sai se sono core standard o rifatti da nvidia per essere più efficienti in questo o quel campo (consumi/area/prestazioni) o integrano estensioni particolari per fare lavori particolari (ARM supporta nativamente unità di calcolo esterne di diversa natura, lo sapevi?).
Tu metti in dubbio che AMD abbia messo le mani su BD (8 anni) più di quanto nvidia abbia avuto tempo di mettere il suo know-now in un architettura relativamente giovane e soprattutto non progettata tenendo conto delle esigenze della gpu nel compute.
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Cioè, è possibile che siano messe a disposizione anche esternamente alla GPU, ma non è un dogma, e come per quasi tutto quello che c'è nella GPU potrebbero benissimo essere delle unità che si occupano di fare compiti in maniera totalmente autonoma a cui il programmatore non può avere accesso diretto (forse il programmatore ha accesso all'unità che fa lo scheduler dei thread all'interno della GPU?).
HSA è una cosa, integrare delle unità di calcolo seriale in un dispositivo che per natura è solo parallelo è un'altra cosa.
Non ho capito una mazza, giuro.
E comunque HSA non serve per integrare delle unità di calcolo seriale (per quanto un sistema sulle pipeline possa essere definito tale), ma di far dialogare Compute Core di natura diversa senza nessun livello gerarchico stabilito a priori.
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Far fare un salto o prendere una decisione di flusso ad una GPU è un trauma. Non c'è hUMA (che non è un'invenzione AMD e quindi non è la più grande innovazione degli ultimi 15 anni, al massimo è un ritorno al passato dimenticato dal marketing di Intel e di AMD stessa che in tutto questo tempo si sono concentrate a fare architetture monolitiche general purpose per risolvere tutto il pensabile in maniera estremamente inefficente)
hUMA è una invenzione di AMD. Non mi risulta che nessun sistema gpu-cpu, anche console (molti spesso parlano impropriamente di xbox 360) dove la gpu abbia un'interfaccia coerente con il MC...
Anzi dagli schemi a blocchi che ho visto fino a oggi, sembrerebbe che persino xbox one abbia una gestione della memoria ereditata da Richland/kabini...

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Il fatto che tutti parlano di HSA come fosse la panacea di tutti i mali e invece declassino queste innovazioni come una (inutile) parte di HSA mi sembra un'assurdità. O non si è capito nulla, o si sta cercando di includere queste innvazioni nell'inutilità di HSA per come è stata presentata fino ad oggi.
HSA è fondamentale per sfruttare la gpu ad un più ampio raggio. Ti invito di andare sul thread di kaveri, visto che dell'argomento sai meno di zero.
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ebbene, non credo che nvidia abbia lavorato tutti questi anni sul progetto Denver per aggiungere dei core ARM semplicemente collegati ad un bus PCI per dire: eccoli a voi, fatene quello che volete, trovate voi il modo di sfruttarli con le altre unità di calcolo. Non ci avrebbe messo così tanto tempo e non lo avrebbe sicuramente fatto se non fosse stata sicura che questa aggiunta porta davvero ad aumentare l'efficienza della sua architettura.
ma aumentare l'efficienza di cosa? Nel compute si. Serve per ridurre i dialoghi con la cpu principale.

PS mi scuso in anticipo il pessimo italiano

Ultima modifica di tuttodigitale : 19-02-2014 alle 17:26.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 17:36   #58
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3552
Quasi ci rinuncio, tanto poco cambia tra quello che ci diciamo.

Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
sono stato chiarissimo.

ho detto questo? Mi sembra di no.
Ho semplicemente ironizzato sul fatto, che tu sei convinto che nvidia voglia sfruttare cpu più di quanto voglia AMD la cpu l'ha progettato proprio tenendo in mente l'APU.

Tu metti in dubbio che AMD abbia messo le mani su BD (8 anni) più di quanto nvidia abbia avuto tempo di mettere il suo know-now in un architettura relativamente giovane e soprattutto non progettata tenendo conto delle esigenze della gpu nel compute.
Io metto in dubbio che la combinazione CPU+GPU con pochi shader e banda limitata di AMD possa essere meglio di CPU+GPU da migliaia di shader + banda enorme + altre unità di calcolo seriale integrate nella CPU con compiti specifici (e non necessariamente general purpose come i core x86 nelle APU).[/quote]

Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
ti invito a spiegarlo in italiano. Non ho capito una mazza, giuro.
E comunque HSA non serve per integrare delle unità di calcolo seriale (per quanto un sistema sulle pipeline possa essere definito tale), ma di far dialogare Compute Core di natura diversa senza nessun livello gerarchico stabilito a priori.
No, non lo rispiego. Non è un problema mio.
Infatti quello che intendevo è che non è detto che nella soluzione nvidia non vi dsia una gerarchia prestabilita per accedere ai core ARM (sempre che si possa fare "da fuori" liberamente o nvidia te lo permetta tramite i suoi driver).

Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
hUMA è una invenzione di AMD. Non mi risulta che nessun sistema gpu-cpu, anche console (molti spesso parlano impropriamente di xbox 360) dove la gpu abbia un'interfaccia coerente con il MC...
Anzi dagli schemi a blocchi che ho visto fino a oggi, sembrerebbe che persino xbox one abbia una gestione della memoria ereditata da Richland/kabini...
La parola hUMA sarà una invenzione AMD. Il concveto di memoria condivisa tra CPU e coprocessori ce l'aveva l'amiga nel 1985. Fai conto degli anni che sono passati prima che qualcuno rispolverasse l'idea che è stata la base di uno degli home computer migliori della storia e com più innovazioni di quante se ne siano viste dall'85 a oggi.
Ora scopriamo che AMD è pure "inventrice" della memoria condivisa... AMD come Apple?

Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
HSA è fondamentale per sfruttare la gpu ad un più ampio raggio. Ti invito di andare sul thread di kaveri, visto che dell'argomento sai meno di zero.
A più ampio raggio? La GPU fa quello che può fare, conti in floating point a manetta se (e ripeto se) si è in grado di creare un algoritmo super parallelizzato e per una quantità di dati sufficiente per nascondere le latenze (che pure le APU con HUMA e tutto quello che vuoi metterci hanno).

Per tutto il resto a cui non ho risposto alzo bandiera bianca.
Ciao, e buon HSA.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 17:58   #59
egounix
Bannato
 
Iscritto dal: May 2005
Città: Se ho fatto qualcosa di male... rivolgersi a FroZen!!!
Messaggi: 20102
spero la 265 tragga vantaggio da mantle
questa 750ti è ottima, poco rumore, poco consumo e poco calore
la differenza di frames non mi fa pensare ad una differenza rilevante, dove non giochi con una - o dove giochi male -, non giochi con nemmeno con l'altra
egounix è offline   Rispondi citando il messaggio o parte di esso
Old 19-02-2014, 18:12   #60
MiKeLezZ
Senior Member
 
L'Avatar di MiKeLezZ
 
Iscritto dal: Jul 2003
Messaggi: 26788
Quote:
Originariamente inviato da narnonet Guarda i messaggi
Domandina ina ina...

Se montassi la GTX 750ti 2GB su di un E8400 con 8Gb di ram con monitor da 1680x1050, dite che sarebbe cpu limited oppure potrebbe essere un upgrade sensato?

Nel caso che VGA proponete voi che non sia cpu limited con spesa massimo di 150€?

Ciao e Grazie
Dai non fare battute... e smettila di leggere i thread di "sfegatati per l'overclock se non c'ho il tostapane a 5GHz neppure mi faccio la cena"... Con la stessa CPU e con risoluzione maggiore (1080p) ci uso una GTX460 che è il 20% più potente

L'acquisto mi pare sensato, anche se personalmente risparmierei i soldi per un bel monitor 1080p e una ipotetica 860 da farsi questa estate così da essere a posto per anni pure con tutti i vari porting da xbox one e ps4
MiKeLezZ è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Gigabyte Aero X16 Copilot+ PC: tanta potenza non solo per l'IA Gigabyte Aero X16 Copilot+ PC: tanta potenza non...
vivo X200 FE: il top di gamma si è fatto tascabile? vivo X200 FE: il top di gamma si è fatto ...
Driver più sicuri: Microsoft alza...
Ego Power+ ha la giusta accoppiata per l...
Scompiglio nei listini Amazon: prezzi im...
Sotto i 105€ il robot Lefant che lava, a...
Mini proiettori smart in offerta: uno co...
Smartwatch Amazfit in offerta: Balance o...
Windows XP ritorna: ecco come usarlo sub...
Arrow Lake in saldo: Intel taglia i prez...
LG C4 da 55'' a 899€ è il top per...
DJI Neo a 159€ è il mini drone pe...
Robot aspirapolvere DREAME D10 Plus Gen ...
A 109€ ha costretto Amazon a nuove scort...
Sbaraglia la concorrenza Intel, questo m...
Giappone all'attacco: ecco il primo wafe...
Cinema in Italia, svolta storica: arriva...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 01:53.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1