Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Samsung Galaxy S25 Edge: il top di gamma ultrasottile e leggerissimo. La recensione
Samsung Galaxy S25 Edge: il top di gamma ultrasottile e leggerissimo. La recensione
Abbiamo provato il nuovo Galaxy S25 Edge, uno smartphone unico per il suo spessore di soli 5,8 mm e un peso super piuma. Parliamo di un device che ha pro e contro, ma sicuramente si differenzia dalla massa per la sua portabilità, ma non senza qualche compromesso. Ecco la nostra prova completa.
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
Pensato per il professionista sempre in movimento, HP Elitebook Ultra G1i 14 abbina una piattaforma Intel Core Ultra 7 ad una costruzione robusta, riuscendo a mantenere un peso contenuto e una facile trasportabilità. Ottime prestazioni per gli ambiti di produttività personale con un'autonomia lontano dalla presa di corrente che permette di lavorare per tutta la giornata
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso
Basato su piattaforma Qualcomm Snapdragon X Plus a 8 core, il nuovo Microsoft Surface Pro 12 è un notebook 2 in 1 molto compatto che punta sulla facilità di trasporto, sulla flessibilità d'uso nelle differenti configurazioni, sul funzionamento senza ventola e sull'ampia autonomia lontano dalla presa di corrente
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 12-02-2012, 10:01   #61
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38297
Quote:
Originariamente inviato da calabar Guarda i messaggi
Non sono affatto d'accordo.
non me l'aspettavo

Quote:
Originariamente inviato da calabar Guarda i messaggi
Prima di tutto, l'efficienza intesa come sfruttamento delle alu non è un parametro di paragone. Si sa che VLIW ha più difficoltà a sfruttare tutte le unità di calcolo, ma questo fa parte della scelta di questo tipo di architettura.
Per capirci... che ti importa se riesci a sfruttare solo la metà delle tue alu quando rispetto all'altra architettura, nello stesso spazio, riesci a metterne il triplo? (i numeri sono a caso, è giusto per fare un esempio concettuale).

Per l' "andare di più" non vedo come tu possa affermare una cosa simile, dato che il rapporto dimensione/potenza è sempre stato a favore delle amd con architettura VLIW, con casi eclatanti come le hd4xxx contro le gtx2xx.
non vedi come io possa affermare una cosa simile, o non vedi le review da circa 6 anni a questa parte? ma cosa c'entra il rapporto dimensione/potenza? Alla fine devi vedere il risultato in termini assoluti, che è quello che conta per la maggior parte dei gamers, sono anni che in termini assoluti le architetture nVidia hanno prestazioni maggiori che quelle Amd (superscalare vs vliw).

Non ho poi messo a caso la circostanza che hai bellamente ignorato, ossia la necessità di nVidia di progettare le proprie gpu anche per l'uso gpgpu, necessità che alla fine ha avvertito anche Amd, se è vero che ha abbandonato la vliw, buona per il gaming, scarsa per la programmabilità in ottica gpgpu; nonostante questa necessità le gpu nVidia hanno continuato ad offrire appunto eccellenti prestazioni anche nel gaming.

Ad ogni modo è un dato di fatto che le vliw Amd in ambito gaming sono state più efficenti performance/watt* (sopratutto da rv770 in poi) e quelle nVidia più efficenti in termini di performance (ripeto, se poi spostiamo il discorso sul gpgpu che non può essere ignorato alla bisogna, visto che esiste ed incide sulle scelte di nVidia, ed adesso pure di Amd, fermi e company diventano efficenti anche lato performance/watt)

adesso forse (in attesa di sapere i dettagli di kepler) stanno convergendo per motivi diversi (l'una perchè la vliw è complicata e rende poco in termini assoluti, oltre che più difficilmente programmabile in ambito hpc; l'altra perchè dà vita a scarsi risultati p/w in ambito gaming; entrambe credo avrebbero peggiorato questi lati negativi con il prgredire del tempo, per cui per motivi diversi si sono -sarebbero, perchè su kepler non ci sono ancora dati certi sull'architettura- imposte svolte)

non credo ci sia un "vincitore" perchè come sempre entrambe le scelte hanno avuto punti di forza e debolezza (la perfezione non è di questo mondo ), e per affermare che non ci sia il vincitore credo serva un minimo di onestà intellettuale che nei tuoi post non ho visto (magari per mie limiti interpretativi ), per cui ti ho risposto in quel modo.


* non dimentichiamo poi che le potenzialità sono state spesso frustrate dalla difficoltà di programmare i driver, in multigpu è stato quasi un disastro poi, che te ne fai poi di potenza senza controllo? http://hardocp.com/article/2012/01/1...ortunity_lost/
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto

Ultima modifica di appleroof : 12-02-2012 alle 10:07.
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 12-02-2012, 10:34   #62
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14734
Eheh, sono prevedibile!
Per non divagare troppo, quoto solo alcuni punti:

Quote:
Originariamente inviato da appleroof Guarda i messaggi
ma cosa c'entra il rapporto dimensione/potenza? Alla fine devi vedere il risultato in termini assoluti [...]
Ma come cosa centra!?! Se si sta parlando di quale architettura è la scelta migliore, allora è l'unica cosa che conta.
Se Nvidia con la sua mania del chippone ha dovuto fare padelle grandi il doppio (si fa per dire) per avere prestazioni superiori, quella è una scelta di nvidia (scelta che ha dovuto fare i conti con le difficoltà produttive che conosciamo, da g200 in poi). AMD ha scelto una politica di produzione differente, con chip non troppo grandi per massimizzare le rese.
E se vogliamo infierire, AMD ha anche inserito molte ridondanze nei chip per questo motivo, che ne aumentano il die size.

Non confondiamo le scelte commerciali con l'architettura, perchè a questo punto uno potrebbe dire: e se amd avesse fatto un chip grosso come quello nvidia, chi sarebbe andato di più?
Se si valuta un'architettura, va fatto a parità di die size e consumi.

Quote:
Originariamente inviato da appleroof Guarda i messaggi
Non ho poi messo a caso la circostanza che hai bellamente ignorato, ossia la necessità di nVidia di progettare le proprie gpu anche per l'uso gpgpu[...]
Ignorato semplicemente perchè la maggiore attitudine dell'approccio al GpGPU è intrinseco delle architetture superscalari, quindi fa già parte del contesto.
Certo, può contemplare un aumento di die size per le cache e il supporto ai diversi linguaggi di programmazione, ma a questo punto ho preferito spannometricamente fare pari e patta con le ridondanze dei chip amd, dato che non sono in grado di valutare precisamente l'impatto di nessuno dei due.

Quote:
Originariamente inviato da appleroof Guarda i messaggi
non credo ci sia un "vincitore" [...]
Al di la dei discorsi sull'onestà intellettuale (perdonami, ma anche io ho la stessa impressione sulle tue risposte, ma preferisco evitare allusioni), credo che al momento l'approccio AMD si sia rivelato vincente.
Ovviamente ogni scelta va rapportata al momento in cui questa viene fatta: ad oggi potrebbe non essere più la scelta giusta, e infatti sia AMD che Nvidia (pare) stanno convergendo su posizioni meno estreme.

Quote:
Originariamente inviato da appleroof Guarda i messaggi
non dimentichiamo poi che le potenzialità sono state spesso frustrate dalla difficoltà di programmare i driver, in multigpu è stato quasi un disastro poi, che te ne fai poi di potenza senza controllo? [...]
Non sono sicuro di aver colto il riferimento al multiGPU, dato che nelle ultime incarnazioni l'efficienza in multiGPU delle schede AMD non ha nulla a che invidiare a quelle nvidia (anzi, all'uscita delle HD6xxx aveva mostrato percentuali di incremento superiori).
Non direi quindi che l'approccio VLIW abbia minato questa caratteristica... al più è una pecca di AMD, se i problemi citati nell'articolo sono reali (non ho esperienza diretta e non mi pronuncio a riguardo).

Ultima modifica di calabar : 12-02-2012 alle 10:46.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 12-02-2012, 10:51   #63
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38297
Quote:
Originariamente inviato da calabar Guarda i messaggi
Eheh, sono prevedibile!
Per non divagare troppo, quoto solo alcuni punti:


Ma come cosa centra!?! Se si sta parlando di quale architettura è la scelta migliore, allora è l'unica cosa che conta.
Se Nvidia con la sua mania del chippone ha dovuto fare padelle grandi il doppio (si fa per dire) per avere prestazioni superiori, quella è una scelta di nvidia (scelta che ha dovuto fare i conti con le difficoltà produttive che conosciamo, da g200 in poi). AMD ha scelto una politica di produzione differente, con chip non troppo grandi per massimizzare le rese.
E se vogliamo infierire, AMD ha anche inserito molte ridondanze nei chip per questo motivo, che ne aumentano il die size.

Non confondiamo le scelte commerciali con l'architettura, perchè a questo punto uno potrebbe dire: e se amd avesse fatto un chip grosso come quello nvidia, chi sarebbe andato di più?
Se si valuta un'architettura, va fatto a parità di die size e consumi.


Ignorato semplicemente perchè la maggiore attitudine dell'approccio al GpGPU è intrinseco delle architetture superscalari, quindi fa già parte del contesto.
Certo, può contemplare un aumento di die size per le cache e il supporto ai diversi linguaggi di programmazione, ma a questo punto ho preferito spannometricamente fare pari e patta con le ridondanze dei chip amd, dato che non sono in grado di valutare precisamente l'impatto di nessuno dei due.
già qua abbiamo un punto fermo dove siamo d'accordo

Quote:
Originariamente inviato da calabar Guarda i messaggi
Al di la dei discorsi sull'onestà intellettuale (perdonami, ma anche io ho la stessa impressione sulle tue risposte, ma preferisco evitare allusioni), credo che al momento l'approccio AMD si sia rivelato vincente.
Ovviamente ogni scelta va rapportata al momento in cui questa viene fatta: ad oggi potrebbe non essere più la scelta giusta, e infatti sia AMD che Nvidia (pare) stanno convergendo su posizioni meno estreme.
imho continui nel tuo discorso, se nVidia ha recuperato miliardi dal mercato GPGPU

But why does AMD want to chase compute in the first place when they already have a successful graphics GPU business? In the long term GCN plays a big part in AMD’s Fusion plans, but in the short term there’s a much simpler answer: because they have to.

In Q3’2011 NVIDIA’s Professional Solutions Business (Quadro + Tesla) had an operating income of 95M on 230M in revenue. Their (consumer) GPU business had an operating income of 146M, but on a much larger 644M in revenue. Professional products have much higher profit margins and it’s a growing business, particularly the GPU computing side. As it stands NVIDIA and AMD may have relatively equal shares of the discrete GPU market, but it’s NVIDIA that makes all the money. For AMD’s GPU business it’s no longer enough to focus only on graphics, they need a larger piece of the professional product market to survive and thrive in the future. And thus we have GCN.


http://www.anandtech.com/show/5261/a...-7970-review/2

a fronte di un mercato, quello delle gpu discrete che sul lungo periodo è dato come al capolinea, qual'è la scelta vincente o meno (anche se in qualche modo obbligata? )

da non dimenticare che contemporaneamente, se Amd grazie ai suoi ottimi prodotti ha conquistato fette di marketshare in mabito vga discrete per il gaming, nVidia ha resistito benissimo, questo dato da solo vale a dire che nonostante le sue gpu siano state pensate con più di un occhio di riguardo al gpgpu, hanno comunque reso bene sul fronte gaming....tutto sommato direi che secondo me è stata leggermente più premiante la scelta nVidia, quindi.


p.s.: chiariamo in maniera esplicita: nessuna allusione con le parolee "onestà intellettuale", non volevo offenderti nè chiamarti fanboy, solo dire quello che ho detto...


Quote:
Originariamente inviato da calabar Guarda i messaggi
Non sono sicuro di aver colto il riferimento al multiGPU, dato che nelle ultime incarnazioni l'efficienza in multiGPU delle schede AMD non ha nulla a che invidiare a quelle nvidia (anzi, all'uscita delle HD6xxx aveva mostrato percentuali di incremento superiori).
Non direi quindi che l'approccio VLIW abbia minato questa caratteristica...
non c'è nulla da cogliere: basta leggere l'articolo di hardopc. Non è filosofia zen
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 12-02-2012, 11:13   #64
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14734
Secondo me nel valutare vincente la strategia nvidia non tieni conto di alcune cose:
- davo sott'inteso che si parlasse dell'ambito consumer, e li Nvidia ha sofferto.
- nvidia vende bene anche per il brand. A parti invertite dubito che AMD avrebbe retto.
- nvidia era ed è avanti sulle piattaforme professionali, ad AMD non sarebbe bastato fare una piattaforma adatta al GpGPU, aveva bisogno di sviluppare anche la parte software e il supporto. E difatti ci sta arrivando piano piano col tempo, farlo prima sarebbe stato prematuro.
Io speravo avremo visto qualcosa di adeguato in minor tempo, ma a quanto pare il progetto che porterà poi a fusion richiede più tempo.

Quote:
Originariamente inviato da appleroof Guarda i messaggi
non c'è nulla da cogliere: basta leggere l'articolo di hardopc. Non è filosofia zen
Ciò che intendevo dire è che una eventuale scelta scellerata di AMD di ridurre il supporto al multiGPU, non è nulla di legato al discorso precedente.
In questo senso non colgo il nesso.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 12-02-2012, 11:30   #65
appleroof
Senior Member
 
L'Avatar di appleroof
 
Iscritto dal: Oct 2005
Messaggi: 38297
Quote:
Originariamente inviato da calabar Guarda i messaggi
Secondo me nel valutare vincente la strategia nvidia non tieni conto di alcune cose:
- davo sott'inteso che si parlasse dell'ambito consumer, e li Nvidia ha sofferto.
- nvidia vende bene anche per il brand. A parti invertite dubito che AMD avrebbe retto.
- nvidia era ed è avanti sulle piattaforme professionali, ad AMD non sarebbe bastato fare una piattaforma adatta al GpGPU, aveva bisogno di sviluppare anche la parte software e il supporto. E difatti ci sta arrivando piano piano col tempo, farlo prima sarebbe stato prematuro.
Io speravo avremo visto qualcosa di adeguato in minor tempo, ma a quanto pare il progetto che porterà poi a fusion richiede più tempo.
1) non si parlava di architetture più o meno buone? Nel valutarne la bontà non si può imho prescindere dal contesto che ha comportato la scelta di adozione, sennò "tiriamo" il discorso solo da una parte e non credo sia obiettivo....
2) vende bene per il brand dove, in ambito gaming? Non credo che Ati fosse meno conosciuto e stimato come marchio in quell'ambito...cmq se uno si è fatto un marchio se l'è fatto con i fatti, non credi?
3) ma anche qui siamo sul discorso che i risultati vengono a seguito di una scelta strategica e del cercare di lavorare bene nella direzione intrapresa: una volta erano le Quadro con i relativi driver, oggi il gpgpu con CUDA, se nVidia negli anni si è fatta un nome in realtà dove i fanboy stanno a zero, ci sarà un perchè

forse Amd pensava di poter supplire grazie alle cpu, nel frattempo, ad ogni modo sono contento che pure Amd ci sia buttata infine, un pò di concorrenza non può che far bene, in ogni ambito (direbbe Monti ), qui si pone imho un'ulteriore difficoltà per nVidia che -credo- non a caso si stà inventando un sistema integrato con cpu arm (amd ha invece le collaudate x86 nel suo arco) per il mondo hpc

Quote:
Originariamente inviato da calabar Guarda i messaggi
Ciò che intendevo dire è che una eventuale scelta scellerata di AMD di ridurre il supporto al multiGPU, non è nulla di legato al discorso precedente.
In questo senso non colgo il nesso.
il nesso risiede nel fatto che se valutiamo la bontà di un'architettura a 360° non possiamo prescindere anche dal supporto sw...ti faccio un esempio da ex-possessore di 4870 e 5850: in questo perido ho valutato l'acquisto di 2 7950 come opzione fra altre, mi ha frenato molto (tra molte altre considerazioni, in verità, vabbè) lo scarso supporto driver finora dimostrato in multigpu, dove invece con lo sli mi sono trovato alla grandissima...

chiudo per dire: che te ne fai di una potenza superstellare se poi non puoi usarla? E' come avere una Ferrari con le gomme e le sospensioni di una Panda
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48
le vga che ho avuto
appleroof è offline   Rispondi citando il messaggio o parte di esso
Old 12-02-2012, 13:43   #66
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14734
Cerco di rispondere in breve

1) Certamente, ma devi guardare come il discorso è iniziato. Un utente diceva che le schede nvidia andavano meglio (si parlava di ambito gaming consumer), io gli ho detto che invece in quell'ambito la VLIW di amd aveva dato risultati migliori.
Che poi la scelta nvidia abbia pagato altrove è un discorso differente.

2) Intendevo in ambito gaming, ma direi che vale anche in generale. Per quanto Ati sia un brand conosciuto, storielle come quella che nvidia fa driver migliori fanno ancora presa su molti.

3) Se devo essere sincero, data l'anzianità del progetto fusion, pensavo che AMD si sarebbe buttata sul GpGPU prima di Nvidia. Direi che mi sbagliavo!

4) Per il crossfire, io non do affatto per scontato che l'approccio VLIW complichi la sua gestione lato driver. La difficoltà sta nell'ottimizzare l'architettura, ma una volta fatto, siamo sicuri che passare al crossfire richieda ulteriori difficoltà? O si tratta semplicemente di un "fattore esterno"?
PS: dato che AMD con la serie HD79xx è passato al vettoriale, le tue preoccupazioni sui driver dovrebbero ridimensionarsi notevolmente!
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 12-02-2012, 15:25   #67
Ren
Senior Member
 
L'Avatar di Ren
 
Iscritto dal: Apr 2003
Città: Roma
Messaggi: 3237
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Il fatto che le 512 alu di fermi funzionino a frequenza doppia rispetto al resto del chip non comporta il raddoppio della logica di controllo. Si tratta semplicemente di uno stadio che lavora a velocità doppia rispetto al resto ma i cui risultati sono messi a disposizione dei restanti stadi che lavorano a frequenze "ordinarie". Insomma, non c'è una doppia pipeline una per le frequenze normali e una per le frequenze doppie ma un'unica pipeline con stadi che lavorano a frequenza differente per il semplice motivo che il numero di fpu è sottodimensionato rispetto ai restanti blocchi del chip. Questo significa che le linee di trasmissione controllo, i thread processor, gli scheduler, i sequencer non sono raddoppiati. Questo significa che passare da 512 alu da 1500 Mhz a 1024 alu da 750 MHz ti permette di risparmiare solo i transistor necessari ai moltiplicatori di frequenza (ovvero, praticamente, niente). Quello che ti permette di risparmiare è l'utilizzo di alu vettoriali.

Mi era già chiaro che non c'è un raddoppio della pipeline, ma solo una doppia frequenza come nel pentium4 per il solo stage di esecuzione.

Gestire le dipendenze di 32 thread avrà qualche peso o no in termini di logica ?

Se non sbaglio ci sono 2x16 scheduler che gestiscono 1024 thread al reference clock per ciclo...

Ultima modifica di Ren : 12-02-2012 alle 15:29.
Ren è offline   Rispondi citando il messaggio o parte di esso
Old 12-02-2012, 19:13   #68
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da Ren Guarda i messaggi
Mi era già chiaro che non c'è un raddoppio della pipeline, ma solo una doppia frequenza come nel pentium4 per il solo stage di esecuzione.

Gestire le dipendenze di 32 thread avrà qualche peso o no in termini di logica ?

Se non sbaglio ci sono 2x16 scheduler che gestiscono 1024 thread al reference clock per ciclo...
si, ma mi auguro che abbiano mantenuto un'impostazione del genere e, se così fosse, da quel lato non si guadagnerebbe niente.
Quello a cui voglio arrivare è che mantenendo un'architettura come quella di fermi superscalare non puoi triplicare le fpu passando da 40 a 28 nm e, addirittura, riducendo il die size e, a maggior ragione non puoi farlo eliminando quei circuiti che o in fermi non esistono (alu fp64) o gli permettono di mantenere un'efficienza architetturale elevata (i 2 warp scheduler per SIMD).
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 12-02-2012, 22:03   #69
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3569
@Yossarian e pleg
immensi grazie ad entrambi per le info date. Pleg, mi piace essere sorpreso.. quando la sorpresa è positiva però! Ovvero, dacci indicazione anonima e casuale del fatto che il GK100/GK110 uscirà prima di quest'estate
Se per sorpresa intendi che dovremo aspettare l'anno prossimo per il nuovo chippone.. eh, sì rimarrei sorpreso ma anche un po' deluso.
Il tuo amico Charlie sostiene che il tape-out del GK110 sia stato fatto solo recentemente e che quindi ci vorranno 6 mesi per vederlo sugli scaffali...

@calabar e appleroof
In verità l'architettura scalare di nvidia si è mostrata molto più potente (e flessibile) di quella VLIW di AMD. Infatti il G80 e la revisione G92 hanno fatto sfaceli al punto di convincere nvidia che l'architettura fosse pronta per essere usata anche in ambito GPGPU.
Al tempo del G92 le architetture VLIW di AMD in confronto facevano pena. Tutti hanno parlato (qualcuno lamentandosi) per un sacco di tempo del fatto che nvidia sia riuscita a riciclare il G92 per tre serie consecutive (via via in fasce sempre più basse) semplicemente perché AMD non è riuscita a fare nulla di equivalente in perf/watt (in perf assolute ovviamente sì, ma come detto, quando si scendeva alla fascia con le perf del G92 nessuna nuova architettura AMD è stata concorrenziale per diverso tempo).
Poi nvidia ha decido di fare "le mattonelle" con molta più logica per la gestione del codice GPGPU (con uso di transistor e watt) invece che metterci molte più unità di elaborazione o risparmiare sui watt e quindi è ovvio che l'efficienza di nvidia nel gaming sia scesa.
Rimane comunque il fatto che l'architettura scalare di nvidia abbia mostrato di essere superiore perché adatta a gaming + GPGPU mentre quella di AMD solo al gaming. Per questo le scelte strategiche delle due aziende sono state diverse negli ultimi anni.

@calabar
La questione dell'inserimento di risorse per il supporto a linguaggi alto livello + migliori cache per il GPGPU non si può certo paragonare alla ridondanza delle risorse di AMD. Nel primo caso è una scelta strategica di funzionamento del chip e del mercato in cui lo si vuole porre, nel secondo caso è solo una scelta di miglioramento delle rese. La fusione delle parti ridondanti in eccesso, buone o rotte che siano, porta questi ad avere impatto zero sui consumi. Le parti funzionali di nvidia no, per cui la diversità perf/watt si vede anche in queste cose.

CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Samsung Galaxy S25 Edge: il top di gamma ultrasottile e leggerissimo. La recensione Samsung Galaxy S25 Edge: il top di gamma ultraso...
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto HP Elitebook Ultra G1i 14 è il notebook c...
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Dopo un mese, e 50 foto, cosa abbiamo capito della nuova Nintendo Switch 2 Dopo un mese, e 50 foto, cosa abbiamo capito del...
Alchimia? No, scienza: ecco come produrr...
Il CISPE chiede di annullare l'acquisizi...
La Now Bar supporterà il doppio d...
Vecchi Bitcoin, guadagno mostruoso: bale...
Nel 2018 Samsung snobbò NVIDIA: u...
Provare i vestiti senza mai uscire di ca...
SanDisk High Bandwidth Flash (HBF): un c...
Panasonic presenta Aquarea DHW, pompa di...
Il bracciale Meta leggerà i gesti...
iOS e Android sotto attacco: per l'antit...
A Verona dopo i monopattini ecco le e-bi...
Itch.io come Steam: al bando i giochi pe...
Digitalizzazione, identità e AI: ...
Kindle Colorsoft: arriva la versione da ...
Electra ottiene altri 433 milioni di eur...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 22:01.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1