Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione Borderlands 4, tra divertimento e problemi tecnici
Recensione Borderlands 4, tra divertimento e problemi tecnici
Gearbox Software rilancia la saga con Borderlands 4, ora disponibile su PS5, Xbox Series X|S e PC. Tra le novità spiccano nuove abilità di movimento, un pianeta inedito da esplorare e una campagna che lascia al giocatore piena libertà di approccio
TCL NXTPAPER 60 Ultra: lo smartphone che trasforma la lettura da digitale a naturale
TCL NXTPAPER 60 Ultra: lo smartphone che trasforma la lettura da digitale a naturale
NXTPAPER 60 Ultra è il primo smartphone con tecnologia NXTPAPER 4.0 per il display, un ampio IPS da 7,2 pollici. Con finitura anti-riflesso, processore MediaTek Dimensity 7400, fotocamera periscopica e modalità Max Ink per il detox digitale, NXTPAPER 60 Ultra punta a essere il riferimento tra gli smartphone pensati per il benessere degli occhi.
Un fulmine sulla scrivania, Corsair Sabre v2 Pro ridefinisce la velocità nel gaming
Un fulmine sulla scrivania, Corsair Sabre v2 Pro ridefinisce la velocità nel gaming
Questo mouse ultraleggero, con soli 36 grammi di peso, è stato concepito per offrire un'esperienza di gioco di alto livello ai professionisti degli FPS, grazie al polling rate a 8.000 Hz e a un sensore ottico da 33.000 DPI. La recensione esplora ogni dettaglio di questo dispositivo di gioco, dalla sua agilità estrema alle specifiche tecniche che lo pongono un passo avanti
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 25-07-2025, 12:37   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: https://www.hwupgrade.it/news/skvide...le_141607.html

Durante il summit "Winning the AI Race", AMD ha discusso del ruolo crescente dell’intelligenza artificiale nella progettazione dei chip. Lisa Su ha dichiarato che l’AI aiuterà a sviluppare le future GPU più rapidamente

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2025, 13:33   #2
foggypunk
Member
 
Iscritto dal: Sep 2006
Messaggi: 203
con l'intelligenza artificiale che gira su hardware NVIDIA? :P
foggypunk è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2025, 13:55   #3
seivson
Junior Member
 
L'Avatar di seivson
 
Iscritto dal: Sep 2009
Messaggi: 29
schede video che si autoriproducono..
seivson è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2025, 14:27   #4
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3810
Huh, nel 2025 anche la signora Su ha capito che l'AI ha del potenziale?
La concorrenza già parlava di Deep Learning quando lei ancora stava a mettere unità FP64 nelle GPU da gioco, come se tutti noi le usassimo per fare simulazioni a casa nostra.

Ma detto questo, si spera che l'AI progetti l'HW meglio di quanto scriva SW, altrimenti il numero dei transistor esploderanno verso l'infinito e oltre solo per fare una unità appena più complessa di un adder.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2025, 15:12   #5
Alodesign
Senior Member
 
Iscritto dal: Sep 2008
Messaggi: 3150
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Huh, nel 2025 anche la signora Su ha capito che l'AI ha del potenziale?
La concorrenza già parlava di Deep Learning quando lei ancora stava a mettere unità FP64 nelle GPU da gioco, come se tutti noi le usassimo per fare simulazioni a casa nostra.

Ma detto questo, si spera che l'AI progetti l'HW meglio di quanto scriva SW, altrimenti il numero dei transistor esploderanno verso l'infinito e oltre solo per fare una unità appena più complessa di un adder.
Dici la stessa Su che produce le EPYC?
__________________
Mobo: Asus Prime X470 - CPU: Ryzen9 5900x - RAM: Corsair Vengeance 2x32gb 3600 - VGA: Asus TUF 4090
Alodesign è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2025, 15:26   #6
dominator84
Senior Member
 
L'Avatar di dominator84
 
Iscritto dal: Aug 2017
Città: sembra talco ma non è, serve a darti l'allegria!
Messaggi: 1240
Quote:
Originariamente inviato da Alodesign Guarda i messaggi
Dici la stessa Su che produce le EPYC?
naaa penso sia Liza Sunna di Parma, che produce il prosciutto cotto
__________________
se lo fumi o lo respiri...
ti dà subito l'allegria!
dominator84 è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2025, 16:46   #7
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3810
Quote:
Originariamente inviato da Alodesign Guarda i messaggi
Dici la stessa Su che produce le EPYC?
Sì, proprio lei che vive solo di CPU e non ha ancora investito un dollaro in altro per poi uscirsene nel 2025 a dire "hey, ma questa AI permette anche di aiutare a progettare!".
Probabilmente in azienda hanno tutti processori EPYC che l'AI la computano esattamente come le CPU del 2015 ma dopo che qualcuno in azienda di nascosto gli ha affiancato una GPU Nvidia è corso da Lisa raccontandole tutto ciò che si sono persi finora.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2025, 16:59   #8
Ripper89
Senior Member
 
L'Avatar di Ripper89
 
Iscritto dal: Dec 2020
Messaggi: 3338
Quote:
Originariamente inviato da foggypunk Guarda i messaggi
con l'intelligenza artificiale che gira su hardware NVIDIA? :P
Penso possa essere possibile
Ripper89 è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2025, 17:20   #9
icoborg
Senior Member
 
L'Avatar di icoborg
 
Iscritto dal: Jan 2002
Città: Firenze, Perugia, Formia(LT)
Messaggi: 9005
Quote:
Originariamente inviato da seivson Guarda i messaggi
schede video che si autoriproducono..
skynet sempre piu vicina
icoborg è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2025, 17:36   #10
supertigrotto
Senior Member
 
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5315
Di IA o computer che aiutano a progettare CPU e GPU,sono in circolazione da tempo,ancora prima delle dichiarazioni di Huang,solo che le potenze in gioco non erano così enormi.
L'effetto Apple ha investito pure Nvidia,il primo lettore MP3 è di Apple,il primo smartphone è di Apple,prima non esisteva niente,il primo tablet è di Apple,il Cloud non esisteva prima di Apple,non esistevano visori prima di vision pro.....
Quindi si,prima di Huang e Nvidia non esisteva niente.
supertigrotto è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2025, 23:19   #11
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3810
Quote:
Originariamente inviato da supertigrotto Guarda i messaggi
Di IA o computer che aiutano a progettare CPU e GPU,sono in circolazione da tempo,ancora prima delle dichiarazioni di Huang,solo che le potenze in gioco non erano così enormi.
L'effetto Apple ha investito pure Nvidia,il primo lettore MP3 è di Apple,il primo smartphone è di Apple,prima non esisteva niente,il primo tablet è di Apple,il Cloud non esisteva prima di Apple,non esistevano visori prima di vision pro.....
Quindi si,prima di Huang e Nvidia non esisteva niente.
Non confondere i CAD (Computer Aided Design) che esistono da quando esistono i computer da tool che che usano modelli AI per aiutare a sviluppare ben più in profondità rispetto a quanto facessero prima.
E come confrontare l'aiuto di un correttore di codice mentre programmi rispetto a tool che generano intere funzioni in maniera autonoma.
Quindi vero, prima di Nvidia c'erano i tool che aiutavano a progettare, con Nvidia i tool hanno fatto un salto quantico e sono ora ben altra cosa.
E' solo Lisa che se ne è accorta nel 2025 inoltrato. E molto probabilmente usando i sistemi Nvidia, visto che suoi suoi si fa fatica solo a mettere un modello generativo semplice come Stable Diffusion. E anche quando dopo peripezie sei riuscito a installarlo le prestazioni sono parecchio meh...
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2025, 23:23   #12
Max Power
Senior Member
 
L'Avatar di Max Power
 
Iscritto dal: Jan 2003
Messaggi: 3366
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
stava a mettere unità FP64 nelle GPU da gioco
Invece Nvidia ci ha preso troppo la mano, e la prossima sarà FP2

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
come se tutti noi le usassimo per fare simulazioni a casa nostra.
Almeno puoi farlo

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ma detto questo, si spera che l'AI progetti l'HW meglio di quanto scriva SW,
Visti i fantastici Driver Nvidia

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
altrimenti il numero dei transistor esploderanno verso l'infinito e oltre solo per fare una unità appena più complessa di un adder.
Ecco, il tipico caso medico di interazione farmacologica
__________________

MASTER: Ryzen 5 9600X LC,Powercolor RX 7700XT,MSI PRO B650M-A WIFI,32GB Ram 6400 CL32 RIPJAWS X in DC,Samsung 980Pro 512GB G4 + 980Pro 2TB G4 + SSHD 2TB SATA + HDD 1TB SATA,Audio ALC897,MSI MPG A650GF,Win 11 PRO,TK X-SUPERALIEN + AQUARIUS III,MSI 32" Optix MAG322CQR,MSI VIGOR GK30 COMBO,MSI Agility GD20 PAD,MSI IMMERSE GH10 HEADSET

Ultima modifica di Max Power : 25-07-2025 alle 23:26.
Max Power è offline   Rispondi citando il messaggio o parte di esso
Old 26-07-2025, 08:12   #13
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5513
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Non confondere i CAD (Computer Aided Design) che esistono da quando esistono i computer da tool che che usano modelli AI per aiutare a sviluppare ben più in profondità rispetto a quanto facessero prima.
E come confrontare l'aiuto di un correttore di codice mentre programmi rispetto a tool che generano intere funzioni in maniera autonoma.
Quindi vero, prima di Nvidia c'erano i tool che aiutavano a progettare, con Nvidia i tool hanno fatto un salto quantico e sono ora ben altra cosa.
E' solo Lisa che se ne è accorta nel 2025 inoltrato. E molto probabilmente usando i sistemi Nvidia, visto che suoi suoi si fa fatica solo a mettere un modello generativo semplice come Stable Diffusion. E anche quando dopo peripezie sei riuscito a installarlo le prestazioni sono parecchio meh...
Molte parte di booldozer erano progettate da AI per contenere i costi, e i risultati si sono visti.
Le prime IA sono andate in produzione ( inteso come lavoro effettivo a clienti) prima del 2015 e si sviluppavano ben prima dell'esistenza stessa di Cuda.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 26-07-2025, 17:46   #14
Mars95
Senior Member
 
L'Avatar di Mars95
 
Iscritto dal: Nov 2019
Messaggi: 3166
Quote:
Originariamente inviato da Alodesign Guarda i messaggi
Dici la stessa Su che produce le EPYC?
Si e credo sia anche la stessa che produce i vari Instinct MI350 e compagnia che saranno quelli che probabilmente utilizzeranno per la AI.
Mars95 è offline   Rispondi citando il messaggio o parte di esso
Old 26-07-2025, 20:41   #15
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4370
Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Molte parte di booldozer erano progettate da AI per contenere i costi, e i risultati si sono visti.
Le prime IA sono andate in produzione ( inteso come lavoro effettivo a clienti) prima del 2015 e si sviluppavano ben prima dell'esistenza stessa di Cuda.
Bulldozer era in assoluto e di gran lunga l'architettura più efficiente, più potente che AMD aveva a disposizione.

E mi fa abbastanza ridere parlare di inefficienza un'architettura che presentava un modulo (i famosi 2 core) grandi quanto 2 core K10, che sono esattamente la metà dei core SB....ma in più con stadi più corti del 30%, ovvero vcore più bassi a parità di clock....se non è efficienza questa cosa è:

a parità di silicio:
llano 3GHz
Trinity 3,8/4,2GHz

per la concorrenza con il capolavoro ingegneristico che era XV
Bristol Ridge 4 core 2,7/3,6GHz@15W
Sandy Bridge 2 core 1,6/2,7 GHz@17W

Ultima modifica di tuttodigitale : 26-07-2025 alle 20:46.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 26-07-2025, 21:03   #16
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5513
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
Bulldozer era in assoluto e di gran lunga l'architettura più efficiente, più potente che AMD aveva a disposizione.

E mi fa abbastanza ridere parlare di inefficienza un'architettura che presentava un modulo (i famosi 2 core) grandi quanto 2 core K10, che sono esattamente la metà dei core SB....ma in più con stadi più corti del 30%, ovvero vcore più bassi a parità di clock....se non è efficienza questa cosa è:

a parità di silicio:
llano 3GHz
Trinity 3,8/4,2GHz

per la concorrenza con il capolavoro ingegneristico che era XV
Bristol Ridge 4 core 2,7/3,6GHz@15W
Sandy Bridge 2 core 1,6/2,7 GHz@17W
Hai dimenticato che l'efficienza l'abbiamo avuta dopo lla revisione umana .
La CU era progettata a mano, mentre cache, fpu e int erano progettati con l'ausilio dell'IA.
La serie x3xx ( 8350 a scendere) era efficiente, ma la prima rev ( sia CPU che apu) erano poco efficienti sia lato consumi che frequenze raggiungibili.
Eri uno tra i più attivi nel Th di bd, mi meraviglio che non ricordi.
All'epoca ero uno di quelli che fece presente la differenza sostanziale di usabilità sotto pesante mt tra Sandy Bridge e Bulldozer e Vishera misurato anche i tempi di esecuzione dei task.
Nonostante gli inciampi ( e lag dei comandi utenti e dell'interfaccia) Sandy bridge eseguiva prima i compiti e consumava anche meno.
In st bulldozer aveva un IPC inferiore ai phenom II, come pure Vishera, anche se grazie alle frequenze riusciva a mascherarlo.
Non ho memoria se il bug TLB dei primi Phenom sia nella parte progettata dai software automatici ( che ancora non possiamo definirli IA)

Ultima modifica di Piedone1113 : 26-07-2025 alle 21:31.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 26-07-2025, 22:44   #17
Alodesign
Senior Member
 
Iscritto dal: Sep 2008
Messaggi: 3150
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Sì, proprio lei che vive solo di CPU e non ha ancora investito un dollaro in altro per poi uscirsene nel 2025 a dire "hey, ma questa AI permette anche di aiutare a progettare!".
Probabilmente in azienda hanno tutti processori EPYC che l'AI la computano esattamente come le CPU del 2015 ma dopo che qualcuno in azienda di nascosto gli ha affiancato una GPU Nvidia è corso da Lisa raccontandole tutto ciò che si sono persi finora.
Madonna quante cazzate
__________________
Mobo: Asus Prime X470 - CPU: Ryzen9 5900x - RAM: Corsair Vengeance 2x32gb 3600 - VGA: Asus TUF 4090
Alodesign è offline   Rispondi citando il messaggio o parte di esso
Old 27-07-2025, 12:00   #18
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4370
Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
.
Non ho memoria se il bug TLB dei primi Phenom sia nella parte progettata dai software automatici ( che ancora non possiamo definirli IA)
per software automatici intendiamo anche un semplice compilatore....la stesura a mano, per come la intendo io, è il NON utilizzo di linguaggi descrittivi come il verilog.

In sostanza la differenza è paragonabile tra quella di un linguaggio di programmazione di alto livello (in cui comunque il come e cosa si scrive influisce eccome) e assembly (in cui decido esattamente quale istruzione macchina debba essere seguita).
Ma l'efficacia di un algoritmo dipende esclusivamente dall'ingegnere.

L'IA invece dovrebbe proprio aiutare a scrivere il codice...

PS detto questo è più facile sbagliare con la progettazione a mano che non utilizzando i linguaggi descrittivi...

Ultima modifica di tuttodigitale : 27-07-2025 alle 12:08.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 27-07-2025, 12:20   #19
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5513
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
per software automatici intendiamo anche un semplice compilatore....la stesura a mano, per come la intendo io, è il NON utilizzo di linguaggi descrittivi come il verilog.

In sostanza la differenza è paragonabile tra quella di un linguaggio di programmazione di alto livello (in cui comunque il come e cosa si scrive influisce eccome) e assembly (in cui decido esattamente quale istruzione macchina debba essere seguita).
Ma l'efficacia di un algoritmo dipende esclusivamente dall'ingegnere.

L'IA invece dovrebbe proprio aiutare a scrivere il codice...

PS detto questo è più facile sbagliare con la progettazione a mano che non utilizzando i linguaggi descrittivi...
Secondo me sei tu che ricordi male:
L'fx8150 era inferiore al 1090t ( senza scomodare il 1100t) in st ( in praticamente tutti i benchmark) nonostante una frequenza turbo di 4200 vs 3600 mhz) ed in mt era in media il 20% più rapido nonostante il 33% di core in più.
L8350 vs 1100t erano praticamente pari in st con +500mhz di frequenza.

Riguardo l'IA, uno dei progettisti di BD in un intervista si lamentò proprio del suo uso massivo dovuto alla necessità di contenere i costi a cause dell'enorme crisi economica di AMD.
Tra i problemi riportati c'erano tragitti vs la cache non ideali ed un aumento del 10/15% di impiego di transistor rispetto alla corrispettiva opera umana.
Nella sua intervista non accusava esplicitamente l'IA, quanto piuttosto l'estrema ristrettezza economica di AMD e relativi poche persone impiegati in progettazione, controllo e revisione del prodotto.
BD da simulatore andava di meno di quanto previsto, ma non tanto da giustificarne un rinvio per ottimizzarlo ( rinvio che comunque AMD non avrebbe potuto permettersi).
Beninteso io ho sempre considerato BD un'ottima cosa, anche se non implementata al meglio, e che comunque ha permesso ad AMD si sopravvivere con un prodotto estremamente economico fino a Zen.

Ultima modifica di Piedone1113 : 27-07-2025 alle 13:10.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 28-07-2025, 05:50   #20
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4370
Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Secondo me sei tu che ricordi male:
L'fx8150 era inferiore al 1090t ( senza scomodare il 1100t) in st ( in praticamente tutti i benchmark) nonostante una frequenza turbo di 4200 vs 3600 mhz) ed in mt era in media il 20% più rapido nonostante il 33% di core in più.
L8350 vs 1100t erano praticamente pari in st con +500mhz di frequenza.
Continui a paragonare mele e pele.
stavamo parlando di architetture
siamo passati in 95W da phenom x6 2,8/3.3GHz (con tutti i core alimentati ala core max, a llano x4 2,9GHz che in OC non andava neppure nella versione K successiva ad oltre 3,3GHz...


ergo, qualsiasi confonto k10 su 32nm (llano) vs bulldozer (Zambesi) su 32nm vede BD molto più avanti proprio nel ST....nel MT invece (a parità di modulo) è indietro nei calcoli FP intensive...gap recuperato con PD (il precedente K10 era assolutamente competitivo a parità di thread con Nehalem/SB per efficienza/Area occupata, quindi il miglioramento più atteso erano le prestazioni nel ST).

Se estendiamo il paragone a mobile, utile perché possiamo vedere il silicio al massimo delle potenzialità, si può notare che il più grande miglioramento delle prestazioni rispetto a llano si sono avuti nel ST
la prima incarnazione dell'architettura necessitava, a parità di thread, del +40-45% di clock nel MT, e +15% nel ST. per pareggiare le prestazioni con k10.

I risultati sotto riportati sono interessanti (le prestazioni sono estrapolate dai dati sopra, che si riferiscono al confronto k10 vs bulldozer zambesi con frequenza bloccata a 4GHz in cinebench)

llano A8-3550MX B0 4 2.0 GHz 2.7 GHz 45W


lllano A8-3520M B0 4 1.6 GHz 2.5 GHz 35W
Trinity A10-4600M B0 4 2.3 GHz 3.2 GHz 35W (+28% fmax turbo, perfomance ST +11%, MT +0%)

(sub 35W solo trinity):


A10-4655M B0 4 2.0 GHz 2.8 GHz 25W
A8-4555M B0 4 1.6 GHz 2.4 GHz 19W

praticamente a parità di clock si passa da 45 a 25W....ora ci mancherebbe pure che avessero lo stesso ipc....ma anche così la differenza nel ST è DEVASTANTE e degna di essere menzionata. (ripeto i dati delle prestazioni sono estrapolati da BD, effettivamente le cpu PD rispetto a BD hanno un scaling CMT migliorato, le prestazioni nel ST in CB sono praticamente identiche) e, seppur di poco, superiore all'aumento di ipc avuto tra il passaggio da Nehalem a Sandy Bridge.

Se parliamo di architetture, e ci limitiamo solo a quello, NON c'è confronto..

L'affermazione che Zambesi non era ottimizzato, quando con Piledriver non ci sono avuti aumenti di fmax né stock né in OC, semplicemente non sta in piedi

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Riguardo l'IA, uno dei progettisti di BD in un intervista si lamentò proprio del suo uso massivo dovuto alla necessità di contenere i costi a cause dell'enorme crisi economica di AMD.
No, il progettista fece i confronti con DEC Alpha, che era un unicum....ovvero progettavano il chip a mano, senza uso di linguaggi descrittivi....ovvero l'equivalente Assembly per un programmatore...

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Tra i problemi riportati c'erano tragitti vs la cache non ideali ed un aumento del 10/15% di impiego di transistor rispetto alla corrispettiva opera umana.
Ok, ma tutte le CPU moderne sono afflitte da questo problema, e ripeto che BD nonostante ciò, al netto della cache aveva un numero di transistor irrisorio rispetto a SB....se c'è qualcuno che si è sempre contraddistinta per architetture cicciotte e lenta (non in termini di ipc) è sempre stata Intel, non AMD.
E comunque il 10% in più non cambiava le carte in tavola....il rivale era un SB-E e IB-E.

Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
BD da simulatore andava di meno di quanto previsto, ma non tanto da giustificarne un rinvio per ottimizzarlo ( rinvio che comunque AMD non avrebbe potuto permettersi).
E no, dal simulatore BD andava e di brutto....l'ipc ottenuto nel ST era comunque notevole e avevano ridotto tanto i ritardi degli stadi...ripeto....mentre un k10@1,4V max 3GHz... BD@1,4V max 4,2GHz....sui 32nm SOI Sandy Bridge non avrebbe superato i 2,7GHz, neppure in turbo....

il problema l'hanno avuto con i 32nm...llano è stato ritardato di 10 mesi...e dopo tutto sto ritardo hanno portato un cesso di quad core@2,9GHz senza turbo su un processo che avrebbe dovuto essere il no-plus ultra (introduzione del HKMG, che tanto aveva fatto sul bulk Intel)


Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Nella sua intervista non accusava esplicitamente l'IA, quanto piuttosto l'estrema ristrettezza economica di AMD e relativi poche persone impiegati in progettazione, controllo e revisione del prodotto.
infatti l'IA c'entra molto poco

Ultima modifica di tuttodigitale : 28-07-2025 alle 06:23.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Borderlands 4, tra divertimento e problemi tecnici Recensione Borderlands 4, tra divertimento e pro...
TCL NXTPAPER 60 Ultra: lo smartphone che trasforma la lettura da digitale a naturale TCL NXTPAPER 60 Ultra: lo smartphone che trasfor...
Un fulmine sulla scrivania, Corsair Sabre v2 Pro ridefinisce la velocità nel gaming Un fulmine sulla scrivania, Corsair Sabre v2 Pro...
Nokia Innovation Day 2025: l’Europa ha bisogno di campioni nelle telecomunicazioni Nokia Innovation Day 2025: l’Europa ha bisogno d...
Sottile, leggero e dall'autonomia WOW: OPPO Reno14 F conquista con stile e sostanza Sottile, leggero e dall'autonomia WOW: OPPO Reno...
Battlefield 6: dall'ultimo State of Play...
Amazon fa crollare i prezzi: componenti ...
Gli italiani spendono fino al 50% della ...
Boom del ricondizionato in Italia: conso...
Marvel's Wolverine: svelato il periodo d...
OPPO annuncia il lancio globale della se...
Saros: annunciata la data d'uscita su PS...
Samsung espande il suo impero audio: acq...
Apple, è scontro con l'Europa sul DMA: "...
Renault alla Milano Fashion Week, una mo...
L'utente con più giochi su Steam ...
iPhone 17 Pro, esplode lo Scratchgate: A...
Amazon mette il turbo agli sconti: 31 of...
Meta domina i social: anche Instagram ra...
Il processore di ritorno al futuro: a 5 ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 10:17.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1