Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Recensione Samsung Galaxy Z Fold7: un grande salto generazionale
Abbiamo provato per molti giorni il nuovo Z Fold7 di Samsung, un prodotto davvero interessante e costruito nei minimi dettagli. Rispetto al predecessore, cambiano parecchie cose, facendo un salto generazionale importante. Sarà lui il pieghevole di riferimento? Ecco la nostra recensione completa.
The Edge of Fate è Destiny 2.5. E questo è un problema
The Edge of Fate è Destiny 2.5. E questo è un problema
Bungie riesce a costruire una delle campagne più coinvolgenti della serie e introduce cambiamenti profondi al sistema di gioco, tra nuove stat e tier dell’equipaggiamento. Ma con risorse limitate e scelte discutibili, il vero salto evolutivo resta solo un’occasione mancata
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello
AMD ha aggiornato l'offerta di CPU HEDT con i Ryzen Threadripper 9000 basati su architettura Zen 5. In questo articolo vediamo come si comportano i modelli con 64 e 32 core 9980X e 9970X. Venduti allo stesso prezzo dei predecessori e compatibili con il medesimo socket, le nuove proposte si candidano a essere ottimi compagni per chi è in cerca di potenza dei calcolo e tante linee PCI Express per workstation grafiche e destinate all'AI.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 22-07-2015, 11:35   #61
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3574
Quote:
Originariamente inviato da gridracedriver Guarda i messaggi
infatti sulle gpu c'è concorrenza, la fury x pareggia a 4k e sta sotto del 5% in QHD consumando +30w su 250w di picco (parliamo del +12% circa, ci sta tutto) e amd non aggiorna architettura come nvidia ogni 2 anni ma ogni 4 facendo solo ritocchi, ma li si fanno cartello con nvidia...

dire che sulle gpu non c'è concorrenza è voler criticare a tutti i costi amd a priori
Stai confondendo quello che per te è competitivo con quello che è competitivo per l'azienda.
La Fury NON e' COMPETITIVA. Punto.
Il costo e le risorse necessarie per stare ancora sotto alle prestazioni della concorrenza rendono il progetto un fallimento dal punto di vista economico.
Se tutto il lavoro svolto su questa GPU si trasformerà in un vantaggio con il prossimo PP, è da dimostrare. Per ora se AMD dovesse vendere le Fiji per fare cassa, semplicemente morirebbe di fame.
Questa non è la competitività che il mercato vuole. Il mercato vuole una scheda che viaggia sopra le prestazioni della concorrenza e che non si faccia schiacciare dal prezzo imposto da essa.
Cosa ha cambiato la Fury per noi consumatori? A me non sembra che la GTX980Ti sia scesa di prezzo. Né la GTX980 con la quale la versione castrata di Fiji vince (e neanche lì tanto a mani basse). E la scheda non è né una buona pubblicità per AMD (sempre eterna seconda anche questa volta) né un fonte di guadagno.
Quindi, di quale concorrenza stiamo parlando? Quella che viaggia "a botte di culo" (wow, forse la Fury ce la fa, forse no) invece di quella che è pienamente sostenibile, ovvero io faccio un prodotto migliore, vendo di più/guadagno di più = mi permetto di poter continuare a investire per migliorare ulteriormente e tenere sotto scacco la concorrenza?
E qui abbiamo parlato solo della ciliegina sulla torta, il top del massimo assoluto... vogliamo parlare di quanto siano concorrenziali Hawaii contro il GM204 o Tonga contro il GM206?

Lo ripeto dal tempo della presentazione della GTX680, se AMD non rivede profondamente la sua architettura per il prossimo PP, staremo esattamente come BD vs Sandy Bridge. Per ora siamo nella fase Phenom vs Core2. Speriamo che la storia non si ripeta, perché a quel punto non c'è giustificazione sul PP o minchi@te varie che tenga: sono incapaci ed è giusto quello che li aspetta.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 22-07-2015, 11:39   #62
zulutown
Senior Member
 
Iscritto dal: Jul 2009
Messaggi: 1161
non ho mai capito al giorno d'oggi l'utilità degli overclock............
__________________
Web2.0 Guides And Tutorials SLR: Canon 6D ZOOM: Canon EF 24-105mm f/4L IS USM FISSI: - Canon EF 28mm f/1.8 USM - Canon EF 40mm f/2.8 STM - Canon EF 50mm f/1.4 USM - Canon EF 100mm f/2 USM - Canon EF 200mm f/2.8L USM II ALTRO: Canon 430 EX II
zulutown è offline   Rispondi citando il messaggio o parte di esso
Old 22-07-2015, 11:40   #63
zulutown
Senior Member
 
Iscritto dal: Jul 2009
Messaggi: 1161
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi


Per tutti quelli dei core M e U etc... sono CPU caccole. Se volete l'autonomia usatele. Io uso PC desktop per lavorare. E voglio la potenza di calcolo. Quindi CPU serie.
P.S: sviluppare con un portatile? Meh... gli arnesi del mestiere in questo caso sono la tastiera e il monitor e non mi viene in mente nulla di positivo nell'usare un portatile pensando alla qualità di entrambi.
se vuoi potenza di calcolo, usi il cloud
__________________
Web2.0 Guides And Tutorials SLR: Canon 6D ZOOM: Canon EF 24-105mm f/4L IS USM FISSI: - Canon EF 28mm f/1.8 USM - Canon EF 40mm f/2.8 STM - Canon EF 50mm f/1.4 USM - Canon EF 100mm f/2 USM - Canon EF 200mm f/2.8L USM II ALTRO: Canon 430 EX II
zulutown è offline   Rispondi citando il messaggio o parte di esso
Old 22-07-2015, 15:05   #64
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5375
Quote:
Originariamente inviato da zulutown Guarda i messaggi
se vuoi potenza di calcolo, usi il cloud
Ma per lui cpu seria significa i7 k o x, mica xeon (single dual o quad socket) o cluster per il calcolo distribuito.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 23-07-2015, 11:41   #65
Vul
Senior Member
 
Iscritto dal: Nov 2006
Messaggi: 6824
si sa niente della gpu integrata?
Vul è offline   Rispondi citando il messaggio o parte di esso
Old 23-07-2015, 11:58   #66
devil_mcry
Senior Member
 
L'Avatar di devil_mcry
 
Iscritto dal: Sep 2008
Messaggi: 36473
Quote:
Originariamente inviato da gridracedriver Guarda i messaggi
a ridaglie

il progetto BD pensi sia nato in un paio di anni?
BD è nato nel 2007 guardando al 2010 come lancio e al 45nm come primo step per arrivare a fine ciclo con i 22nm PD-SoI sotto la supervisione della tanto conclamata IBM (ma guarda un po pure loro sbagliano oltre a GF o ad AMD)
quando la stavano progettando si aspettavano ben altro livello, e ad un anno dal lancio nel 2010 cosa potevano fare se non farlo uscire comunque, buttare via tutto?

il ritardo di BD ha portato AMD ha sfornare i phenom x6 sul 45nm SoI migliorato e a tener ancora testa ad Intel.

poi il fail del 32nm PD-SoI che ha portato al primo BD ad un clock di ben 900mhz inferiore alle attese (da 4.5ghz def a 3.6ghz del primo 8150) e alla cancellazione di komodo x10 nella roadmap all'istante della presentazione... poi il dopo è solo una conseguenza di ASSENZA DI SILICIO TOP
cavolo parlavano di 22nm PD-SoI e di cpu x16 native oltre ad un x10 già nativo sui 32nm PD-SoI... come si fa a dire che è solo colpa dell'architettura dai!?!

di fatto nel 2012 è nata la concezione di Zen sotto la supervisione di Keller, che propende per il suo passato per l'alto IPC e forse utilizzeranno SMT anche loro.

tutto questo per dire che non ha senso dire: "che cestinino BD e rimedino",
primo perché per studiare una Architettura nuova ci vogliono dai 3 ai 5 anni e secondo perché devi avere il PP adatto per farlo, ed essendo FABLESS sarà sempre più difficile


che poi l'architettura abbia le sue colpe siamo tutti d'accordo
E' sempre colpa di altro, ma nel momento in cui dopo 3 anni (2010) si erano già resi conto che le cose non andavano come pensavano forse far partire un progetto in parallelo con un'architettura nuova da far uscire nel 2013 (3 anni dopo) era un'idea (visto che dal 2013 non hanno più proposto nulla), idea che però a nessuno è venuto in mente.

E ti rigiro la domanda, visto che dici ridaglie, ad oggi esiste un PP, di chiunque, che garantirebbe frequenze tanto elevate da sopperire al gap? Non mi pare. E siamo nel 2015. Non esiste tecnologicamente il SILICIO TOP, perchè non possono farlo.

Quindi chi ha sbagliato?

Perchè poi PD a 5GHz con clock di base di 4.7GHz l'hanno buttato in vendita, e lasciando perdere i 200w di TDP, le prestazioni erano comunque scarse nonostante la revisione dell'architettura e il clock elevato.
__________________
Ryzen 5950x PBO2 - Asus B550m TUF- G.Skill 32GB 3200Mhz - ZOTAC 3080 12GB OC - 990 PRO 1TB - 970 EVO 1TB - 860 EVO 250GB
Asus ROG Ally Z1 Extreme

Ultima modifica di devil_mcry : 23-07-2015 alle 12:01.
devil_mcry è offline   Rispondi citando il messaggio o parte di esso
Old 23-07-2015, 12:20   #67
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5375
Quote:
Originariamente inviato da devil_mcry Guarda i messaggi
E' sempre colpa di altro, ma nel momento in cui dopo 3 anni (2010) si erano già resi conto che le cose non andavano come pensavano forse far partire un progetto in parallelo con un'architettura nuova da far uscire nel 2013 (3 anni dopo) era un'idea (visto che dal 2013 non hanno più proposto nulla), idea che però a nessuno è venuto in mente.

E ti rigiro la domanda, visto che dici ridaglie, ad oggi esiste un PP, di chiunque, che garantirebbe frequenze tanto elevate da sopperire al gap? Non mi pare. E siamo nel 2015. Non esiste tecnologicamente il SILICIO TOP, perchè non possono farlo.

Quindi chi ha sbagliato?

Perchè poi PD a 5GHz con clock di base di 4.7GHz l'hanno buttato in vendita, e lasciando perdere i 200w di TDP, le prestazioni erano comunque scarse nonostante la revisione dell'architettura e il clock elevato.
Ma a te chi ti dice che non ci fosse un progetto pronto per un pp inferiore al 32nm (gia in fase di progettazione si decide su che pp fare la cpu e quindi quanti transistor integrare, densità minori in zone più calde, timing e frequenze di cache che possono variare anche di frequenza in base al pp)?

per le schede video si fa la stessa cosa e gm204 è una fascia media dei 16 nm adattata ai 28, ma gk210 è sicuramente nel cassetto a fare la muffa e nell'attesa del 16 nm verrà modificato (migliorandolo secondo i simulatori) o forse cestinato del tutto perché verrà sostituito da una nuova architettura).
Non è che Amd abbia mandato in ferie i progettisti, ma senza nuovo pp non fai uscire una cpu ad alte prestazioni adattata ad un processo non idoneo per castrarla e farla andare molto meno di quello che dovrebbe.
Continui ad evolvere l'architettura, oppure nel peggiore dei casi butti tutto alle ortiche e sviluppi una nuova architettura per il pp successivo.

Amd avrebbe dovuto fanculare Gf, ma:
Non sappiamo se i contratti potessero essere stracciati senza superare nei costi i mancati guadagni.
Samsung sarebbe stata capace un pp ad alte prestazioni (tsmc sappiamo per certo no)? non credo dato che ha avuto non pochi problemi gia con le sue cpu arm.
Rimane solo Intel, ma non credo che sarebbe disposta a fabbricare cpu per la concorrenza.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 23-07-2015, 13:27   #68
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da sintopatataelettronica Guarda i messaggi
Beh.. che tu sei fanboy accecato dall'"odio" non è un mistero per nessuno.. per cui c'è ben poco da dialogare con te.

..e lasciamo perdere che cosa si son meritate nel corso degli anni sia INTEL che NVIDIA, vah... tra l'altro NVIDIA pure di recente
fanboy Intel = chiunque osi criticare AMD

Io ho avuto molti AMD e li ho sempre presi tranquillamente.
Se io sono un fanboy, allora il papa tromba più di Siffredi.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 23-07-2015, 15:14   #69
-Maxx-
Senior Member
 
L'Avatar di -Maxx-
 
Iscritto dal: Aug 2009
Messaggi: 4756
Quote:
Originariamente inviato da sopress Guarda i messaggi
Che bello leggere una news in "vecchio stile" hwu
Già, è un vero peccato che l'industria del PC sia rallentata negli ultimi anni a tal punto da rendere meno frequenti questo tipo di notizie...
-Maxx- è offline   Rispondi citando il messaggio o parte di esso
Old 23-07-2015, 16:36   #70
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
[...] Continui ad evolvere l'architettura, oppure nel peggiore dei casi butti tutto alle ortiche e sviluppi una nuova architettura per il pp successivo.
Una nuova architettura la sviluppi anche con lo stesso processo produttivo. Specialmente se hai completamente cannato il progetto, com'è accaduto con Bulldozer, e nonostante i successivi tentativi di correzione.
Quote:
Amd avrebbe dovuto fanculare Gf, ma:
Non sappiamo se i contratti potessero essere stracciati senza superare nei costi i mancati guadagni.
Samsung sarebbe stata capace un pp ad alte prestazioni (tsmc sappiamo per certo no)? non credo dato che ha avuto non pochi problemi gia con le sue cpu arm.
Rimane solo Intel, ma non credo che sarebbe disposta a fabbricare cpu per la concorrenza.
Decisamente no.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 23-07-2015, 19:33   #71
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5375
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Una nuova architettura la sviluppi anche con lo stesso processo produttivo. Specialmente se hai completamente cannato il progetto, com'è accaduto con Bulldozer, e nonostante i successivi tentativi di correzione.
Si, se sai che i 22nm (che erano quelli previsti) invece che uscire dopo 18 mesi sarebbe stati cancellati ed invece ti tocca aspettare i 16nm per 36 mesi.

Intel ha solo leggermente affinato la sua architettura quando ha preso atto che i ritardi erano sul pp erano troppo in la come tempi.
Il mancato guadagno (perché di quello si parla) era superiore ad un affinamento sull'architettura (e parliamo di solo affinamento).
Sono certo anch'io che sarebbe uscita un'architettura migliore di BD sui 32nm, ma si doveva fare una nuovo chipset e controller ram per ddr3, magari uscire con al max 4 core + ht (perché presumo che la prossima cpu avrà L3 da minimo 12 mb, forse 16, per il passaggio da cache esclusiva ad inclusiva. ) e comunque con prestazioni nettamente inferiori agli i7 4+4 (non ci vorremmo aspettare un ipc doppio rispetto agli i7 normalizzato al numero di transistor).
E soprattutto un ciclo di vita di soli 6 mesi.
Credi che sia conveniente oppure che lo sforzo economico non sarebbe comunque rientrato con la vendita di tale cpu?
Cosa è meglio spendere 100 per rientrare di 100 (nel migliore dei casi) o spendere 0 per rientrare di 10?
Di questo sono certo perché nonostante tutto i creditori credono fattibile il piano industriale di AMD, altrimenti si sarebbero gia chiuse le borse e Amd sarebbe gia gambe all'aria.
Intel stessa ha cercato comunque di massimizzare gli investimenti dei P4, che anche non avendo un gap prestazionale ecclatante con A64 erano comunque inferiori, soprattutto nelle versioni dual e xeon.
E' uscita con l'architettura core2 nei tempi più propizi per gli investitori e sappiamo tutti come è andata e credo che anticipare l'architettura avrebbe ridotto gli utili netti a Intel.

Quindi i torti di AMD sono (secondo me):
Phenom 1 palesemente buggati (con il PhII che male non era, ma ormai la nomea c'era) ed in ritardo di 6 mesi
Un architettura troppo automatizzata nella progettazione per contenere i costi ed i tempi per cercare di recuperare su Intel (le cpu di AMD erano buone perché progettate a mano come fa un artigiano)
Necessità di vendere le fonderie e vincolarsi nella fornitura esclusiva con GF nei primi tempi.

Troppa fiducia negli studi IBM (lunghezza pipiline e lackage dei transistor) e nei tempi di miniaturizzazione.

Non aver cercato per tempo un'alternativa a BD, ed anzi affidarsi ad un suo derivato per le Apu (e secondo me se Jaguar fosse stato previsto per il 32nm sarebbe stato meglio, ma poi tutta la gpu sarebbe stata da riprogettare per ripassare dal Soi al Bulk o all'Fb-Soi)

Essersi fidata dei tempi previsti dalle fonderie (la stessa tsmc ha dato problemi anche se in modo molto meno marcato che GF)

In definitiva ha commessi diversi errori, ma alcuni erano obbligati, altri invece dei veri e propri fallimenti individuali.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 23-07-2015, 21:04   #72
devil_mcry
Senior Member
 
L'Avatar di devil_mcry
 
Iscritto dal: Sep 2008
Messaggi: 36473
Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Ma a te chi ti dice che non ci fosse un progetto pronto per un pp inferiore al 32nm (gia in fase di progettazione si decide su che pp fare la cpu e quindi quanti transistor integrare, densità minori in zone più calde, timing e frequenze di cache che possono variare anche di frequenza in base al pp)?

per le schede video si fa la stessa cosa e gm204 è una fascia media dei 16 nm adattata ai 28, ma gk210 è sicuramente nel cassetto a fare la muffa e nell'attesa del 16 nm verrà modificato (migliorandolo secondo i simulatori) o forse cestinato del tutto perché verrà sostituito da una nuova architettura).
Non è che Amd abbia mandato in ferie i progettisti, ma senza nuovo pp non fai uscire una cpu ad alte prestazioni adattata ad un processo non idoneo per castrarla e farla andare molto meno di quello che dovrebbe.
Continui ad evolvere l'architettura, oppure nel peggiore dei casi butti tutto alle ortiche e sviluppi una nuova architettura per il pp successivo.

Amd avrebbe dovuto fanculare Gf, ma:
Non sappiamo se i contratti potessero essere stracciati senza superare nei costi i mancati guadagni.
Samsung sarebbe stata capace un pp ad alte prestazioni (tsmc sappiamo per certo no)? non credo dato che ha avuto non pochi problemi gia con le sue cpu arm.
Rimane solo Intel, ma non credo che sarebbe disposta a fabbricare cpu per la concorrenza.
Perchè se avessero avuto un progetto pronto ad alto IPC per un PP inferiore l'avrebbero già messo in commercio, invece no. (AMD vende già CPU a 28nm)

nVidia con Kepler e poi Maxwell ha fatto il gioco delle 2 GPU perchè AMD non ha cambiato l'architettura e ha potuto farlo (ricordo che il GK110 doveva uscire, magari non full, come GTX680 e invece con il GK104 si sono fatti tutto il primo giro). Inoltre GK110 GM210 non sono architetture nuove rispetto a GK104 e GM104.

AMD infine non produce e vende solo su silicio GF, Kaveri è su 28 bulk TSMC e comunque rispetto al 32SOI di GF ha perso un po' di clock che ha pareggiato con il lieve aumento di IPC. Quindi con che silicio si dovevano realizzare queste CPU dato che Samsung produce silicio per applicazioni low power principalmente e sia TSMC che GF non hanno il silicio adatto e nemmeno il 32nm di Intel probabilmente gli avrebbe dato chissà quanto in più?
__________________
Ryzen 5950x PBO2 - Asus B550m TUF- G.Skill 32GB 3200Mhz - ZOTAC 3080 12GB OC - 990 PRO 1TB - 970 EVO 1TB - 860 EVO 250GB
Asus ROG Ally Z1 Extreme
devil_mcry è offline   Rispondi citando il messaggio o parte di esso
Old 23-07-2015, 21:26   #73
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originariamente inviato da Piedone1113 Guarda i messaggi
Si, se sai che i 22nm (che erano quelli previsti) invece che uscire dopo 18 mesi sarebbe stati cancellati ed invece ti tocca aspettare i 16nm per 36 mesi.
Sì, ma la nuova architettura la puoi realizzare a prescindere dal processo produttivo. Il nocciolo è questo.
Quote:
Intel ha solo leggermente affinato la sua architettura quando ha preso atto che i ritardi erano sul pp erano troppo in la come tempi.
No, Intel continua a tirare per la sua strada, e fa del suo meglio per rilasciare prodotti migliori.

D'altra parte ti faccio notare che AMD non è la sua unica concorrente. Tutt'altro.
Quote:
Il mancato guadagno (perché di quello si parla) era superiore ad un affinamento sull'architettura (e parliamo di solo affinamento).
Sono certo anch'io che sarebbe uscita un'architettura migliore di BD sui 32nm, ma si doveva fare una nuovo chipset e controller ram per ddr3, magari uscire con al max 4 core + ht (perché presumo che la prossima cpu avrà L3 da minimo 12 mb, forse 16, per il passaggio da cache esclusiva ad inclusiva. ) e comunque con prestazioni nettamente inferiori agli i7 4+4 (non ci vorremmo aspettare un ipc doppio rispetto agli i7 normalizzato al numero di transistor).
E soprattutto un ciclo di vita di soli 6 mesi.
Credi che sia conveniente oppure che lo sforzo economico non sarebbe comunque rientrato con la vendita di tale cpu?
Considerato che sono passati ben più di 6 mesi, e che non serviva né un nuovo chipset né un nuovo controller, direi che AMD ha preferito buttarsi su qualche affinamento per non spendere troppo, anziché cancellare Bulldozer e sviluppare una nuova architettura realmente competitiva.
Quote:
Cosa è meglio spendere 100 per rientrare di 100 (nel migliore dei casi) o spendere 0 per rientrare di 10?
Ma non è così, perché nel frattempo hai perso notevoli quote di mercato in ambito desktop, e sei letteralmente sparita dal molto più redditizio mercato server.

Se non fosse stato per la commessa delle console, per quanto poco margine ci sia, i bilanci sarebbero stati costantemente in rosso.
Quote:
Di questo sono certo perché nonostante tutto i creditori credono fattibile il piano industriale di AMD, altrimenti si sarebbero gia chiuse le borse e Amd sarebbe gia gambe all'aria.
Guarda sopra: non c'è finita grazie alle console. Ma in ogni caso lavorando a queste ha drenato risorse dallo sviluppo di architetture più competitive.
Quote:
Intel stessa ha cercato comunque di massimizzare gli investimenti dei P4, che anche non avendo un gap prestazionale ecclatante con A64 erano comunque inferiori, soprattutto nelle versioni dual e xeon.
E' uscita con l'architettura core2 nei tempi più propizi per gli investitori e sappiamo tutti come è andata e credo che anticipare l'architettura avrebbe ridotto gli utili netti a Intel.
Le nuove architetture richiedo 2-3 anni di sviluppo. E nonostante la batosta, Intel ha comunque realizzato diverse versioni di P4, migliorando man mano l'architettura. Quindi ha investito non poco anche in quest'architettura, e d'altra parte non poteva fare altrimenti perché questa base l'aveva già ed era l'unica che poteva sfruttare.
Quote:
Quindi i torti di AMD sono (secondo me):
Phenom 1 palesemente buggati (con il PhII che male non era, ma ormai la nomea c'era) ed in ritardo di 6 mesi
Mi spiace, ma era già molto in ritardo. Ho preso un Phenom II (che ho ancora, a Catania) soltanto perché era più economico di un processore Intel di simili caratteristiche.
Quote:
Un architettura troppo automatizzata nella progettazione per contenere i costi ed i tempi per cercare di recuperare su Intel (le cpu di AMD erano buone perché progettate a mano come fa un artigiano)
Beh, non è certo questo che fa la "bontà" di un processore, ma i risultati che consente di raggiungere.
Quote:
Necessità di vendere le fonderie e vincolarsi nella fornitura esclusiva con GF nei primi tempi.
Che non ha ancora fatto, però. Non capisco perché continua ancora con GF...
Quote:
Troppa fiducia negli studi IBM (lunghezza pipiline e lackage dei transistor) e nei tempi di miniaturizzazione.
Questo è un problema che hanno tutti.
Quote:
Non aver cercato per tempo un'alternativa a BD, ed anzi affidarsi ad un suo derivato per le Apu (e secondo me se Jaguar fosse stato previsto per il 32nm sarebbe stato meglio, ma poi tutta la gpu sarebbe stata da riprogettare per ripassare dal Soi al Bulk o all'Fb-Soi)

Essersi fidata dei tempi previsti dalle fonderie (la stessa tsmc ha dato problemi anche se in modo molto meno marcato che GF)

In definitiva ha commessi diversi errori, ma alcuni erano obbligati, altri invece dei veri e propri fallimenti individuali.
Beh, per l'architettura i problemi sono tutti suoi. Come pure per l'acquisizione di Ati a un prezzo esagerato.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 24-07-2015, 08:35   #74
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5375
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Sì, ma la nuova architettura la puoi realizzare a prescindere dal processo produttivo. Il nocciolo è questo.

No, Intel continua a tirare per la sua strada, e fa del suo meglio per rilasciare prodotti migliori.

D'altra parte ti faccio notare che AMD non è la sua unica concorrente. Tutt'altro.

Considerato che sono passati ben più di 6 mesi, e che non serviva né un nuovo chipset né un nuovo controller, direi che AMD ha preferito buttarsi su qualche affinamento per non spendere troppo, anziché cancellare Bulldozer e sviluppare una nuova architettura realmente competitiva.

Ma non è così, perché nel frattempo hai perso notevoli quote di mercato in ambito desktop, e sei letteralmente sparita dal molto più redditizio mercato server.

Se non fosse stato per la commessa delle console, per quanto poco margine ci sia, i bilanci sarebbero stati costantemente in rosso.

Guarda sopra: non c'è finita grazie alle console. Ma in ogni caso lavorando a queste ha drenato risorse dallo sviluppo di architetture più competitive.

Le nuove architetture richiedo 2-3 anni di sviluppo. E nonostante la batosta, Intel ha comunque realizzato diverse versioni di P4, migliorando man mano l'architettura. Quindi ha investito non poco anche in quest'architettura, e d'altra parte non poteva fare altrimenti perché questa base l'aveva già ed era l'unica che poteva sfruttare.

Mi spiace, ma era già molto in ritardo. Ho preso un Phenom II (che ho ancora, a Catania) soltanto perché era più economico di un processore Intel di simili caratteristiche.

Beh, non è certo questo che fa la "bontà" di un processore, ma i risultati che consente di raggiungere.

Che non ha ancora fatto, però. Non capisco perché continua ancora con GF...

Questo è un problema che hanno tutti.

Beh, per l'architettura i problemi sono tutti suoi. Come pure per l'acquisizione di Ati a un prezzo esagerato.
Il Phenom core agena (phenom 9850) nel ruolino di marcia era prevista la commercializzazione a fine primo trimestre 2007, invece fu presentato nel 4 trimestre e subito ritirato dal commercio.
Su questo parlo di 6 mesi di ritardo non sul ph2 (che ha portato ulteriore ritardo o sulla tabella di marcia).

Riguardo la nuova architettura e PP, come faresti a vendere una cpu ad alte prestazioni con quasi 2 miliardi di transistor a 32 nm?
Questo intendevo.
Per il resto considero Amd alla stregua di un pugile chiuso nell'angolo che aspetta il gong per riprendere fiato ( che sono i 16 nm).
Se riprenderà fiato può portare al termine il match (non necessariamente vincerlo, ma finire i round), altrimenti se i 16nm saranno sulla falsa riga di bd vs Core, o getta la spugna (abbandonando le architetture ad alte prestazione x86) o va KO.

Insomma non voglio giustificare Amd o fare il profeta dicendo che a 16 nm farà una cpu supermegacazzolagalattica, ma preferisco analizzare i trascorsi, cercare di capire le politiche e farmi un'idea del perché dello stato attuale, perché l'attuale situazione non è certamente voluta e se un team può sbagliare una volta, difficilmente non cerca di rimediare se può.
Diverse volte ho avuto a che fare con lavori cannati, eppure alcune volte era economicamente conveniente buttare tutto e rifare da zero, piuttosto che metterci una pezza.
Nel frattempo che arriva il nuovo prodotto si cerca di rendere utilizzabile quello riuscito male.

Riguardo l'acquisizione di Ati, indubbiamente è stata sovrastimata, ma con AMD che non progettava più chipset e Nvidia che aveva abbandonato le cpu AMD (ti ricordo che l'ultimo vero chipset per amd fu l'nf4) non mi sento di poter condannare senza appello la scelta di acquistare comunque (quello che condanno fu la vendita della parte grafica dedicata ai soc arm.)

Ultima modifica di Piedone1113 : 24-07-2015 alle 08:40.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 24-07-2015, 18:54   #75
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Che agguantò Qualcomm, se non ricordo male. Altra scelta insensata. Ma vabbé, ormai il latte è versato.

Riguardo all'architettura, hanno provato a cambiare quella di Bulldozer, ma con risultati non brillanti. Il punto è che roba del genere non sarebbe nemmeno dovuta essere presentata. All'inizio sembrava una rivoluzione, ma quando sono arrivati i dettagli e a seguire i primi benchmark, il dado era ormai tratto. Anziché aggiustarla, sarebbe stata meglio pensarne un'altra nuova.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2015, 08:44   #76
GrowingTentacles
Member
 
Iscritto dal: Aug 2014
Messaggi: 44
Intel ora spingerà forte.... C'è arm che rischia di fottergli il mercato apple...
GrowingTentacles è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2015, 09:11   #77
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5375
Quote:
Originariamente inviato da GrowingTentacles Guarda i messaggi
Intel ora spingerà forte.... C'è arm che rischia di fottergli il mercato apple...
Apple si fa da se le sue cpu (le progetta lei e le fa produrre a fonderie terze)
Certamente passerà ad Arm in un futuro non troppo lontano a giudicare verso che direzione si sta spingendo la sua politica commerciale, questo a prescindere da quello che farà intel.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2015, 10:18   #78
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Apple usa già CPU ARM: semplicemente se le progetta in casa...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2015, 11:08   #79
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5375
Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Apple usa già CPU ARM: semplicemente se le progetta in casa...
Forse sono stato poco chiaro:
I soc dei prodotti "mobile" (ixxx) di apple sono con architettura Arm (che apple detiene le licenze) personalizzate (progettate) da Apple stessa e fatta stampare a fonderie esterne.
In un futuro non troppo lontano credo che Apple (a giudicare dalla politica commerciale della stessa) questa famiglia di cpu verosimilmente soppianterà i nelle attuali famiglie di prodotti x86 le cpu intel.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 25-07-2015, 12:13   #80
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Scusami, avevo capito male io allora.

Francamente lo trovo improbabile per due ragioni: Intel riesce a fornire processori che finora si sono dimostrati inarrivabili in termini prestazioni, pur tenendo d'occhio i consumi.

Ma la ragione principale è che Apple ha aumentato il suo market share in ambito "desktop" proprio dopo essere passata dai PowerPC ai processori di Intel, grazie alla possibilità di poter eseguire anche Windows e lo stuolo di applicazioni (nonché giochi) x86.

Dubito fortemente che possa fare marcia indietro, rimuovendo questa comodissima possibilità.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Recensione Samsung Galaxy Z Fold7: un grande salto generazionale Recensione Samsung Galaxy Z Fold7: un grande sal...
The Edge of Fate è Destiny 2.5. E questo è un problema The Edge of Fate è Destiny 2.5. E questo ...
Ryzen Threadripper 9980X e 9970X alla prova: AMD Zen 5 al massimo livello Ryzen Threadripper 9980X e 9970X alla prova: AMD...
Acer TravelMate P4 14: tanta sostanza per l'utente aziendale Acer TravelMate P4 14: tanta sostanza per l'uten...
Hisense M2 Pro: dove lo metti, sta. Mini proiettore laser 4K per il cinema ovunque Hisense M2 Pro: dove lo metti, sta. Mini proiett...
Sharkoon punta sui case a basso costo, m...
La tua rete Wi-Fi fa pena? Questi FRITZ!...
Amazon, un weekend di fuoco per gli scon...
Ancora 3 smartwatch Amazfit in forte sco...
Sharkoon A60 RGB: dissipatore ad aria du...
HONOR 400 Pro a prezzo bomba su Amazon: ...
Offerte da non perdere: robot aspirapolv...
Apple Watch e Galaxy Watch ai minimi sto...
Il rover NASA Perseverance ha ''raccolto...
NASA e ISRO hanno lanciato il satellite ...
Switch 2 ha venduto 5,82 milioni di cons...
Assassin's Creed Black Flag Remake: le m...
Cosa ci fa una Xiaomi SU7 Ultra alle por...
Promo AliExpress Choice Day: prezzi stra...
Nostalgico, ma moderno: il nuovo THEC64 ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 13:46.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1