View Full Version : Un buon inizio d'anno per AMD, grazie ai chip per console
Redazione di Hardware Upg
18-04-2014, 07:08
Link alla notizia: http://www.businessmagazine.it/news/un-buon-inizio-d-anno-per-amd-grazie-ai-chip-per-console_51975.html
L'azienda americana totalizza vendite per 1,4 miliardi di dollari nei primi 3 mesi del 2014, segnando un utile operativo e un risultato netto negativo per 20 milioni di dollari. Superate le stime degli analisti, grazie alle vendite di soluzioni semi-custom integrate nelle nuove console
Click sul link per visualizzare la notizia.
meno male :) Forza AMD butta fuori nuovi FX :D
PhoEniX-VooDoo
18-04-2014, 10:28
la vera cosa positiva di questa generazione di console è questa, un po di ossigeno ad AMD.
speriamo ne faccia buon uso..
Spero che questo danaro porti AMD a tornare ai fasti di un tempo, la tecnlogia la ha.
devilred
18-04-2014, 10:49
la vera cosa positiva di questa generazione di console è questa, un po di ossigeno ad AMD.
speriamo ne faccia buon uso..
ehhh!! tirera fuori al prima cpu che consuma 2 kw/h e andra' come un pentium 2.
CrapaDiLegno
18-04-2014, 11:03
Eh, inzomma...
A parte i vari flussi di cassa trimestrali che sono influenzati da diverse voci di breve termine o una tantum io guardo con maggiore interesse sempre a queste 3 voci:
Long-term debt: 2,078 | 1,998 | 2,039
Other long-term liabilities: | 135 | 177 | 22
Che indica che il debito totale a lungo termine è cresciuto di 38 milioni di dollari rispetto al trimestre precedente e di 152 milioni dall'anno scorso
e questo:
Research and development: 279 | 293 | 312
che indica che gli investimenti in ricerca e sviluppo sono calati di 14 milioni dal trimestre precedente e di ben 33 milioni dall'anno scorso (oltre il 10% in meno).
Con questi valori è "facile" far vedere che si hanno "solo" 20 milioni di perdita nel trimestre, quando invece a parità di condizioni finanziarie e di investimento dovrebbero essere quasi 70.
La cosa grave non è comunque e il valore assoluto della perdita, ma il fatto che neanche con le vendite dei chip per console la situazione di AMD si sia sistemata in maniera solida.
Non si conoscono i termini del contratto tra AMD e Sony/Microsoft ma la frase riportata nei commenti al bilancio "The sequential decline was primarily due to decreased revenue from semi-custom SoCs while the year-over-year increase was driven by higher sales of semi-custom SoCs" è abbastanza allarmante, nel senso che a quanto pare il costo dei chip per console non è stato fissato ma può variare a seconda delle situazioni e come previsto, dopo la botta iniziale per il lancio delle nuove console il trend sarà piatto per il resto dell'anno (con qualche incremento durante il trimestre natalizio). E il bilancio di questo trimestre mette in luce che i guadagni (che qualcuno calcolava come stellari alla faccia di nvidia che aveva detto "ma anche no") non sono sufficienti.
D'altronde basta fare un rapido calcolo della serva:
Marzo 2013, senza chip custom in vendita, fatturato della sezione GPU di 337 milioni e guadagno di 16, Marzo 2014 con la vendita di chip custom per console che porta il fatturato della sezione a 734 milioni il guadagno è di 91 milioni. La differenza di 400 milioni per un incasso di 75 milioni vuol dire un margine del 20%. Decisamente superiore a quello delle GPU discrete (5%) ma certamente nulla che faccia gridare al miracolo. Sopratutto guardando alla concorrenza che ha un margine medio del 60% sui suoi prodotti.
beh si deve considerare la flessione del mercato pc e dei pagamenti a GF
Hulk9103
18-04-2014, 11:57
ehhh!! tirera fuori al prima cpu che consuma 2 kw/h e andra' come un pentium 2.
Sempre con la solita stro****a del consumo, non se ne può più di sentirla :stordita:
Se cerchi bene l'8350 consuma si e no 30-40W in più del 4770k e te lo posso confermare IO STESSO che con il pc in full arrivo a 330W REALI TOTALI calcolati con strumento apposito. Se considero i 130 euro circa in più per il 4770k ci metterei circa 2 anni di utilizzo PESANTE per ammortizzare quei 130 euro in più spesi adesso....secondo te è così sbagliato comprare amd? ;)
Te lo dico perchè sono stato 2 settimane sul forum a chiedere cosa fosse meglio ed a informarmi su cosa prendere ed ero li li per prendere il 4770k però poi la non possibilità si OC e i 130 euro in più mi hanno fatto cambiare idea e ho fatto benissimo a cambiarla.
Perchè paragono il k e non il liscio? Bhe 8350 è sbloccato quindi... Senza contare che se vuoi cloccare intel devi scoperchiarlo e bla bla bla...
No bhe ma l'importante è che consuma 20 watt in meno se poi si ammortizzano in 2-3 anni è solamente un dettaglio da niente hahahaha
Tornando all'articolo: sono contento per AMD, speriamo riescano a sviluppare nuovi APU e a promuovere Mantle.
devilred
18-04-2014, 13:12
Sempre con la solita stro****a del consumo, non se ne può più di sentirla :stordita:
Se cerchi bene l'8350 consuma si e no 30-40W in più del 4770k e te lo posso confermare IO STESSO che con il pc in full arrivo a 330W REALI TOTALI calcolati con strumento apposito. Se considero i 130 euro circa in più per il 4770k ci metterei circa 2 anni di utilizzo PESANTE per ammortizzare quei 130 euro in più spesi adesso....secondo te è così sbagliato comprare amd? ;)
Te lo dico perchè sono stato 2 settimane sul forum a chiedere cosa fosse meglio ed a informarmi su cosa prendere ed ero li li per prendere il 4770k però poi la non possibilità si OC e i 130 euro in più mi hanno fatto cambiare idea e ho fatto benissimo a cambiarla.
Perchè paragono il k e non il liscio? Bhe 8350 è sbloccato quindi... Senza contare che se vuoi cloccare intel devi scoperchiarlo e bla bla bla...
No bhe ma l'importante è che consuma 20 watt in meno se poi si ammortizzano in 2-3 anni è solamente un dettaglio da niente hahahaha
Tornando all'articolo: sono contento per AMD, speriamo riescano a sviluppare nuovi APU e a promuovere Mantle.
arrotondiamo a 35 watt in piu', x10 ore fanno 350 watt che in 100 ore divetano ben 3,5 kw/h di consumo in piu', mi scoccio di fare i calcoli su base annua e comunque c'e' tanta gente che il pc lo tiene acceso 24/24. falli tu i calcoli su.
edit: i calcoli non si fanno cosi, ma cosi: spendo 130€ in piu' per un intel mettiamo che lo uso 24/24 per fare rendering video, l'intel mi consuma un 30% in meno dell'amd, l'intel mi fa lo stesso lavoro in 100 ore prima, chi ha risparmiato???
marchigiano
18-04-2014, 13:27
meno male :) Forza AMD butta fuori nuovi FX :D
forza che perde 20 milioni? forza che i nuovi opteron saranno kaveri quad core? :rolleyes:
la vera cosa positiva di questa generazione di console è questa, un po di ossigeno ad AMD.
perdere 20 milioni è ossigeno?
Se cerchi bene l'8350 consuma si e no 30-40W in più del 4770k e te lo posso confermare IO STESSO che con il pc in full arrivo a 330W REALI TOTALI calcolati con strumento apposito
col 4770 in full consumo 110-120W altro che 30-40W di differenza... :sofico: senza contare che con intel se non clocchi basta il dissi standard, un ali da 15€, un case minuscolo. il 8350 devi subito cambiare dissi che altrimenti diventa un rettore di un boeing, un ali decente e una mobo con fasi robuste e già ti sei mangiato il risparmio di prezzo della cpu. il tutto per avere un chipset che ancora oggi fa fatica con l'hot swap dei dischi sata ogni tanto si pianta... :muro:
Pier2204
18-04-2014, 13:30
arrotondiamo a 35 watt in piu', x10 ore fanno 350 watt che in 100 ore divetano ben 3,5 kw/h di consumo in piu', mi scoccio di fare i calcoli su base annua e comunque c'e' tanta gente che il pc lo tiene acceso 24/24. falli tu i calcoli su.
edit: i calcoli non si fanno cosi, ma cosi: spendo 130€ in piu' per un intel mettiamo che lo uso 24/24 per fare rendering video, l'intel mi consuma un 30% in meno dell'amd, l'intel mi fa lo stesso lavoro in 100 ore prima, chi ha risparmiato???
Che spannometro hai usato? :D
Hulk9103
18-04-2014, 13:45
arrotondiamo a 35 watt in piu', x10 ore fanno 350 watt che in 100 ore divetano ben 3,5 kw/h di consumo in piu', mi scoccio di fare i calcoli su base annua e comunque c'e' tanta gente che il pc lo tiene acceso 24/24. falli tu i calcoli su.
edit: i calcoli non si fanno cosi, ma cosi: spendo 130€ in piu' per un intel mettiamo che lo uso 24/24 per fare rendering video, l'intel mi consuma un 30% in meno dell'amd, l'intel mi fa lo stesso lavoro in 100 ore prima, chi ha risparmiato???
Si ma ti salvi in calcio d'angolo nominando il rendering. In quel singolo caso ci può stare eccome anche perchè intel in quel ambito è più efficiente di amd e quindi sorvolando i consumi credo si guardi molto di più all'efficienza e quindi la scelta SCONTATA è intel ma fidati che non lo scelgono di certo per i consumi ridotti, probabilmente anche se amd consumasse 50w in meno sceglierebbero comunque intel appunto perchè più veloce. Anche perchè molta gente che fa render di pc non ne capisce un tubo al di fuori del suo programmino e quindi per lui amd o intel, consumi o non consumi cosa vuoi che ne sappia?? E conosco "personalmente" gente di questo tipo.
In ogni caso esistono molte più persone che usano il pc per giocare che per fare rendering quindi non è un gran esempio ;)
PS. Un kwh costa dai 0.18 ai 0.29 cent a seconda del consumo annuo, noi prendiamo come ipotesi 0.25€/kwh e facciamo conto che l'amd consumi 35w in più dell'intel (8350vs4770k) ed ipotizziamo un uso giornaliero di 5 ore, quindi se facciamo 35w * 1h = 35wh / 1000 = 0.035Kwh * 0.25€ = 0.00875€ per 1 ora di utilizzo (ho fatto finta che intel consumasse 0 e amd 35 così da evidenziare solo la differenza di consumo).
Uso giornaliero 10 ore x 0.035 = 0.35Kwh * 0.25€ = 0.087€. Quindi abbiamo speso in un giono per 10 ore quasi 9 centesimi di euro. In un anno (non riporto in calcolo) per un uso di 10 ore giornaliere sono 31 e rotti euro di energia elettrica in più rispetto intel.
Usandolo 24 ore dovrebbe venire circa 2.5 volte in più quindi sui 70-75 euro all'anno in più che comunque rispetto il costo di 120-130 euro in più dell'intel l'ammortizzeresti comunque in DUE anni.
Potrei aver sbagliato qualcosa (anche se non credo :)), quindi come vedi quella del consumo è una cavolata bella e buona a cui credono solamente i fanboy più accaniti....
CrapaDiLegno
18-04-2014, 13:46
Sempre con la solita stro****a del consumo, non se ne può più di sentirla :stordita:
Se cerchi bene l'8350 consuma si e no 30-40W in più del 4770k e te lo posso confermare IO STESSO che con il pc in full arrivo a 330W REALI TOTALI calcolati con strumento apposito. Se considero i 130 euro circa in più per il 4770k ci metterei circa 2 anni di utilizzo PESANTE per ammortizzare quei 130 euro in più spesi adesso....secondo te è così sbagliato comprare amd? ;)
Te lo dico perchè sono stato 2 settimane sul forum a chiedere cosa fosse meglio ed a informarmi su cosa prendere ed ero li li per prendere il 4770k però poi la non possibilità si OC e i 130 euro in più mi hanno fatto cambiare idea e ho fatto benissimo a cambiarla.
Perchè paragono il k e non il liscio? Bhe 8350 è sbloccato quindi... Senza contare che se vuoi cloccare intel devi scoperchiarlo e bla bla bla...
No bhe ma l'importante è che consuma 20 watt in meno se poi si ammortizzano in 2-3 anni è solamente un dettaglio da niente hahahaha
Tornando all'articolo: sono contento per AMD, speriamo riescano a sviluppare nuovi APU e a promuovere Mantle.
Non ho capito: del 8350 hai usato il valore di consumo reale e del 4770K il valore di TPD?
Guarda che anche i micro Intel mica consumano sempre il massimo.
E comunuqe la differenza non è proprio quella che hai detto. Guarda questa, fatta vs un IvyBridge. Poi dimmi se sono 35W, ce ne sono già 15 solo in idle...
http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested/6
Tutto il sistema AMD consuma un botto di più. Fa più rumore. Va di meno, o se ti va bene per 2 o 3 applicazioni vai uguale. Non so come tu faccia a essere contento della tua scelta, ma io ho sempre la stessa opinione: quando uno spende un tot di soldi ha la necessità di convencersi che quello che ha comprato è il meglio che si poteva.
edit: con il tuo calcolo che dà una differenza minima già dopo solo 2 anni sei in pareggio. Che vuol dire che acquistando un Intel in quei due anni avresti avuto maggiori prestazioni e meno disturbo acustico / riscaldamento in casa. Allo stesso prezzo. Alcuni il PC lo usano per davvero e magari lo tiene anche per più di 2 anni e queste cose sono più importanti che risparmiare un centinaio di euro all'acquisto.
ehhh!! tirera fuori al prima cpu che consuma 2 kw/h e andra' come un pentium 2.
Daaaai! Trollata gratuita!
Una AMD agguerrita e competitiva fa solo del gran bene al mercato (E A NOI!!)
I processori di gran classe li sa fare, l'Athlon ha fatto storia.
Adesso è già un po' che insegue.. speriamo in un nuovo sorpasso!
Hulk9103
18-04-2014, 13:56
col 4770 in full consumo 110-120W altro che 30-40W di differenza... :sofico: senza contare che con intel se non clocchi basta il dissi standard, un ali da 15€, un case minuscolo. il 8350 devi subito cambiare dissi che altrimenti diventa un rettore di un boeing, un ali decente e una mobo con fasi robuste e già ti sei mangiato il risparmio di prezzo della cpu. il tutto per avere un chipset che ancora oggi fa fatica con l'hot swap dei dischi sata ogni tanto si pianta... :muro:
Non ho capito se sei ironico xD comunque se vai sui siti (enermax, cooler master...) dove calcoli quanta potenza ti serve tra 4770k e 8350 ci sono 30-40 watt di differenza.
Perchè alimentatore più grosso? Io ho comprato un 630w e avrei preso lo stesso identico alimentatore anche prendendo Intel quindi nessun costo aggiuntivo.
Mhhhh sto problema non mi si è mai presentato (ho la sabertooth) ed inoltre non è vero che le mobo costano di più e non è neanche vero che ti serve una mobo con fasi robuste. Prima della saber avevo una mobo normalissima am3+ da 60 euro e andava esattamente come adesso, scontato dire che prima non potevo fare OC ma si sa che per fare OC servono le mobo buone sia da intel che da amd. In ogni caso la controparte intel della saber ti costa a partire da 140 euro..... quindi stamminchia che costa di più....
Poi io la saber l'ho preso in promo con BF4 in omaggio e quindi è come se l'avessi pagata 110 euro ;)
PS. poi il mio pc in full consuma 320-330w togli 130w la vga (560 :cry:) altri 40-50 la mobo + hdd ventole ecc arrivi ad un consumo tra i 145 e i 155 watt del procio, e tornano con i 30-40 watt in più rispetto il 4770k :D
Comunque siamo OT a bombazza :D
Hulk9103
18-04-2014, 14:03
Non ho capito: del 8350 hai usato il valore di consumo reale e del 4770K il valore di TPD?
Guarda che anche i micro Intel mica consumano sempre il massimo.
E comunuqe la differenza non è proprio quella che hai detto. Guarda questa, fatta vs un IvyBridge. Poi dimmi se sono 35W, ce ne sono già 15 solo in idle...
http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested/6
Tutto il sistema AMD consuma un botto di più. Fa più rumore. Va di meno, o se ti va bene per 2 o 3 applicazioni vai uguale. Non so come tu faccia a essere contento della tua scelta, ma io ho sempre la stessa opinione: quando uno spende un tot di soldi ha la necessità di convencersi che quello che ha comprato è il meglio che si poteva.
edit: con il tuo calcolo che dà una differenza minima già dopo solo 2 anni sei in pareggio. Che vuol dire che acquistando un Intel in quei due anni avresti avuto maggiori prestazioni e meno disturbo acustico / riscaldamento in casa. Allo stesso prezzo. Alcuni il PC lo usano per davvero e magari lo tiene anche per più di 2 anni e queste cose sono più importanti che risparmiare un centinaio di euro all'acquisto.
Per me quei consumi sono sballati. Il mio in full TOTALE sta a 330w togli la vga (130watt) cosè il restante è solo processore? la mobo consuma 10 watt? è elettricamente impossibile ed è per questo che secondo me non sono poi così tanto veritieri.
Non è che mi sono convinto, semplicemente ho speso la giusta cifra per quel che vale, cosa vuoi una ferrari con i soldi di una 500?? Smettiamola con ste caga*e della convinzione, ho speso 130 euro in meno, vado un po meno (che non mi dice nulla perchè non sono li con fraps a vedere il frame perfetto, non m'interessa) e son felice lo stesso.
Poi vabbè rumore acustico ??? Riscaldamento in casa ??? WTF :doh: Quando non si sa cosa dire si dicono stro****e :asd:
PS: ho preso i consumi reali ovvero un 110-120w il 4770k e un 150-160w l'8350w che è quello che consuma in full a me. Il mio di certo non consuma 190 watt se no significa che la mia mobo consuma 5 watt, impossibile....
devilred
18-04-2014, 14:36
Si ma ti salvi in calcio d'angolo nominando il rendering. In quel singolo caso ci può stare eccome anche perchè intel in quel ambito è più efficiente di amd e quindi sorvolando i consumi credo si guardi molto di più all'efficienza e quindi la scelta SCONTATA è intel ma fidati che non lo scelgono di certo per i consumi ridotti, probabilmente anche se amd consumasse 50w in meno sceglierebbero comunque intel appunto perchè più veloce. Anche perchè molta gente che fa render di pc non ne capisce un tubo al di fuori del suo programmino e quindi per lui amd o intel, consumi o non consumi cosa vuoi che ne sappia?? E conosco "personalmente" gente di questo tipo.
In ogni caso esistono molte più persone che usano il pc per giocare che per fare rendering quindi non è un gran esempio ;)
PS. Un kwh costa dai 0.18 ai 0.29 cent a seconda del consumo annuo, noi prendiamo come ipotesi 0.25€/kwh e facciamo conto che l'amd consumi 35w in più dell'intel (8350vs4770k) ed ipotizziamo un uso giornaliero di 5 ore, quindi se facciamo 35w * 1h = 35wh / 1000 = 0.035Kwh * 0.25€ = 0.00875€ per 1 ora di utilizzo (ho fatto finta che intel consumasse 0 e amd 35 così da evidenziare solo la differenza di consumo).
Uso giornaliero 10 ore x 0.035 = 0.35Kwh * 0.25€ = 0.087€. Quindi abbiamo speso in un giono per 10 ore quasi 9 centesimi di euro. In un anno (non riporto in calcolo) per un uso di 10 ore giornaliere sono 31 e rotti euro di energia elettrica in più rispetto intel.
Usandolo 24 ore dovrebbe venire circa 2.5 volte in più quindi sui 70-75 euro all'anno in più che comunque rispetto il costo di 120-130 euro in più dell'intel l'ammortizzeresti comunque in DUE anni.
Potrei aver sbagliato qualcosa (anche se non credo :)), quindi come vedi quella del consumo è una cavolata bella e buona a cui credono solamente i fanboy più accaniti....
hai detto niente, la questione e' che amd e' indietro anche sul singolo thread e sui giochi, insomma lasciamoli li dove stanno.
devilred
18-04-2014, 14:38
Daaaai! Trollata gratuita!
Una AMD agguerrita e competitiva fa solo del gran bene al mercato (E A NOI!!)
I processori di gran classe li sa fare, l'Athlon ha fatto storia.
Adesso è già un po' che insegue.. speriamo in un nuovo sorpasso!
non ci sono dubbi su quello che scrivi, ma quanti anni sono che aspettate??? e quanti ancora dovete aspettare??? il mercato pc si e' evoluto in peggio negli ultimi 2 anni, non credo proprio che amd investa risorse dove non guadagnava quando poteva figuriamoci oggi.
CrapaDiLegno
18-04-2014, 14:41
Per me quei consumi sono sballati. Il mio in full TOTALE sta a 330w togli la vga (130watt) cosè il restante è solo processore? la mobo consuma 10 watt? è elettricamente impossibile ed è per questo che secondo me non sono poi così tanto veritieri.
Non è che mi sono convinto, semplicemente ho speso la giusta cifra per quel che vale, cosa vuoi una ferrari con i soldi di una 500?? Smettiamola con ste caga*e della convinzione, ho speso 130 euro in meno, vado un po meno (che non mi dice nulla perchè non sono li con fraps a vedere il frame perfetto, non m'interessa) e son felice lo stesso.
Poi vabbè rumore acustico ??? Riscaldamento in casa ??? WTF :doh: Quando non si sa cosa dire si dicono stro****e :asd:
PS: ho preso i consumi reali ovvero un 110-120w il 4770k e un 150-160w l'8350w che è quello che consuma in full a me. Il mio di certo non consuma 190 watt se no significa che la mia mobo consuma 5 watt, impossibile....
No, o stai facendo apposta o hai qualche problema a comprendere i disegnini.
Il test che ti ho linkato misura il consumo di TUTTO il sistema, non della sola CPU. Chi ha mai detto che la tua CPU consuma 190W?
Il sistema COMPLETO Intel consuma 110W, quello AMD con 8350 quasi 200. Perché oltre alla CPU conta anche il chipset e siccome AMD produce chipset ancora a nanometrie immense la differenza può benissimo essere quella.
E questo è il primo punto.
Il secondo è che la CPU Intel non consuma 110W, dato che il suo TDP è 90 (nel test linkato c'è il 3770K che ce l'ha di 77W), tutti i test mostrano che la CPU Intel non arriva mai a quel consumo neanche in load e quindi tra il il TDP del micro Intel (che non è il consumo reale, ma te lo passo come tale) e il tuo consumo reale già ci sono almeno 70W.
Il fatto che per te certe cose siano stron*ate va be'. Per me che con PC ci lavoro diverse ore al giorno il fattore n. 1 è la rumorosità perché avere un sibilo continuo nelle orecchie mi irrita tantissimo.
70W sono il doppio di consumo della CPU Intel. Sono pochi? Sono tanti? Non lo so, ognunio si fa i propri conti, ma venire a dire che con un tempo di ammortamento inferiore a 2 anni (perché la differenza non è solo di 35W) ignorando la questione rumore e calore (70W scaldano e in estate possono dare fastidio, a meno che tu non abbia il condizionatore e allora altra spesa di corrente) non sono significativi per qualcuno, è una forzatura bella e buona per convincersi che l'acquisto è quello corretto.
Il 3770K (senza scomodare il 4770K) non costa come una Ferrari rispetto al costo di un 8350. Diciamo che hai comprato una Jeep quando con poco più potevi comprarti una Audi. La Jeep va anche bene, intendiamoci, ma venire a dire che anche se consuma di più, va più piano e fa più casino per fare viaggi di 1000Km va bene lo stesso.... insomma... sì, per l'amor del cielo, va anche lei, ma certamente non è la soluzione migliore.
Poi, ue, i soldi sono tuoi così come le orecchie, per cui non sto qui a dirti come devi spendere i tuoi soldi. Viceversa evita però di venire qui a dire che la tua è stata una scelta intelligente.
D'altronde il prezzo delle CPU AMD è quello proprio perché hanno caratteristiche che le rendono difficilmente concorrenziali con i chip di Intel. Altrimenti non si spiegherebbe come mai hanno avuto un calo del 10% del fatturato nella divisione CPU. Intel ha riportato per il mercato consumer, quello stesso in cui ormai AMD opera, un calo dell'1%.
Dare la colpa alla sola crisi (ormai responsabile anche dell'acidità delle piogge) mi sembra un po' limitante.
CrapaDiLegno
18-04-2014, 15:12
non ci sono dubbi su quello che scrivi, [b]ma quanti anni sono che aspettate[b]??? e quanti ancora dovete aspettare??? il mercato pc si e' evoluto in peggio negli ultimi 2 anni, non credo proprio che amd investa risorse dove non guadagnava quando poteva figuriamoci oggi.
"Aspettate"... in verità quanti anni è che aspettiamo.
Un mercato con una AMD più competitiva non ci avrebbe certamente portato alla strategia "Tick-Tick" di Intel che da ormai 6 anni non sforna più niente di davveri utile al mercato (e poi ci si lamenta che il mondo PC non si agggiorna).
Guardacaso, nel mercato mobile dove Intel è indietro la strategia tick-tock non è applicata, anzi si fanno tock di due passi invece che uno soltanto negli anni dispari.
E il fatto che Intel svenda i suoi Atom per renderli competitivi la dice lunga su quanto il mercato abbia perso in questi anni con la competizione nel mercato desktop (e server) completamente anemica.
Purtroppo, per quanto è bello sperare, AMD non potrà certo tornare a fare quanto fatto con l'Athlon ai tempi. La sitazione di mercato non lo permette e tecnologicamente è rimasta davvero troppo indietro. I tagli alla ricerca e sviluppo in questi anni indicano chiaramente che non c'è la volontà.
L'unica speranza è che ARM o chiunque altro spacchi definitivamentre il duopolio Wintel che è come una catena che tiene legato un titano. Liberati dalla catena il mercato potrà crescere a dismisura tecnologicamente e quindi aprire a nuovi sviluppi che oggi sono preclusi.
forza che perde 20 milioni? forza che i nuovi opteron saranno kaveri quad core? :rolleyes:
perdere 20 milioni è ossigeno?
col 4770 in full consumo 110-120W altro che 30-40W di differenza... :sofico: senza contare che con intel se non clocchi basta il dissi standard, un ali da 15€, un case minuscolo. il 8350 devi subito cambiare dissi che altrimenti diventa un rettore di un boeing, un ali decente e una mobo con fasi robuste e già ti sei mangiato il risparmio di prezzo della cpu. il tutto per avere un chipset che ancora oggi fa fatica con l'hot swap dei dischi sata ogni tanto si pianta... :muro:scusa ma c'è un bel incremento di fatturato rispetto allo stesso trimestre dell'anno scorso...
Hulk9103
18-04-2014, 15:31
hai detto niente, la questione e' che amd e' indietro anche sul singolo thread e sui giochi, insomma lasciamoli li dove stanno.
Questo è vero e in alcuni casi neanche poco però è anche vero che non è colpa di amd se le case videoludiche spendono più soldi in marketing che nella produzione del loro titolo, cioè preferisco far pubblicità piuttosto che ottimizzare un titolo al meglio per farlo andare bene anche su amd. Per esempio Battlefield 4 dai test l'8350 va quasi come un 4770k (se non sbaglio.
..cut..
Rispondo per punti se no ci perdiamo.
Domanda stupida: come si fa a calcolare il consumo energetico in quel modo? Uno ha la gpu integrata l'altro no, ne hanno messa una secondaria e poi sottratto il valore? Integrata nella mobo? No perchè conta anche quello e comunque leggendo non mi pare di averlo letto. I grafici li capisco mi sembrano un po storpiati in ogni caso, infatti ho smesso di seguire anandtech, preferisco altri siti...
Si sono stron***e perchè io che uso il pc per giocare e/o a scopo multimediale non m'interessa assolutamente il rumore, che poi quale rumore? Con un dissi aftermarket tutto svanisce e diventa ultra-silenzioso. Mi è capitato di montare un 4770k e di rumore ne fa a uffa, il dissi stock intel è una mer*a tanto quanto quello amd quindi sostituirlo, a mio avviso, è sempre cosa buona e giusto. Per il riscaldamento boh non capisco il problema, 40-50°C in full non mi sembrano tanti anzi mi sembrano tali quali quelli intel e di certo anche fossero 10°C, sono davvero un problema?
Il paragone pc/motori non sempre è azzeccato e il tuo esempio è davvero fuori luogo, sarebbe corretto se 1 kwh costasse come la verde, allora si che avresti più che ragione ma così non è per tanto paragonare jeep e ferrari per una percorrenza di x km è davvero senza senso perchè sono cose completamente diverse. La concezione della jeep dovrebbe essere "fuori strada", il ferrari l'opposto. Che poi è senza senso proprio il paragone, bha. Cpu amd e intel non sembrano su questi livelli.
Appunto che i soldi sono i miei decido come spenderli e non c'è bisogno che vieni tu a imporre la retta via. Io non ho mai detto che amd sia meglio d'intel, non ho mai detto che amd vada meglio di intel ma anzi qualche post sopra ho detto chiaramente che ero li li per prendere il 4770k (o 4670k) poi invece ho optato per l'8350 e mi ci trovo bene, non ho problemi, riesco a giocare a tutto senza difficoltà per tanto SI dal mio punto di vista è stata una scelta intelligente poi ognuno pensa, compra e dici quel che gli pare. Ma perchè dovrei dire che non è una scelta corretta? Che motivo avrei? Dico chiaramente che se vuoi il top in tutti gli ambiti prendi intel se no prendi amd che tanto differenze astronomiche NON NE VEDRAI per l'uso gaming, almeno io non ne vedo.
Anche questo l'ho detto nel post sopra in risposta a @devilred, dicendo chiaramente che pure io se dovessi far rendering comprerei OVVIAMENTE un intel perchè più performante perchè consuma meno e per questo lavoro amd non è indicata, ma dato io non faccio rendering questa cosa non m'interessa minimamente.
Non è che amd costa meno perchè va meno, costa meno perchè non c'è nessuno che ottimizza per amd: abbiamo notato chiaramente (bf4, crysis3) come giochi ottimizzati per 8 core annullino praticamente il divario tra 4770k e 8350, il problema è che sono giochi che si contano su di una mano. Costa anche meno perchè non ha monopolio, non ha partnership con nessuno, dimmi quanti amd vedi in un mercatone e quanti intel eppure io ho preso un ultrabook amd che funziona una meraviglia.
E' vero, solo la crisi è limitante ma i fattori sono tanti del perchè amd cala e non riesce a volare, in primis l'ottimizzazione per amd praticamente INESISTENTE, roba da poco? Non direi...
devilred
18-04-2014, 15:38
Questo è vero e in alcuni casi neanche poco però è anche vero che non è colpa di amd se le case videoludiche spendono più soldi in marketing che nella produzione del loro titolo, cioè preferisco far pubblicità piuttosto che ottimizzare un titolo al meglio per farlo andare bene anche su amd. Per esempio Battlefield 4 dai test l'8350 va quasi come un 4770k (se non sbaglio.
Rispondo per punti se no ci perdiamo.
Domanda stupida: come si fa a calcolare il consumo energetico in quel modo? Uno ha la gpu integrata l'altro no, ne hanno messa una secondaria e poi sottratto il valore? Integrata nella mobo? No perchè conta anche quello e comunque leggendo non mi pare di averlo letto. I grafici li capisco mi sembrano un po storpiati in ogni caso, infatti ho smesso di seguire anandtech, preferisco altri siti...
Si sono stron***e perchè io che uso il pc per giocare e/o a scopo multimediale non m'interessa assolutamente il rumore, che poi quale rumore? Con un dissi aftermarket tutto svanisce e diventa ultra-silenzioso. Mi è capitato di montare un 4770k e di rumore ne fa a uffa, il dissi stock intel è una mer*a tanto quanto quello amd quindi sostituirlo, a mio avviso, è sempre cosa buona e giusto. Per il riscaldamento boh non capisco il problema, 40-50°C in full non mi sembrano tanti anzi mi sembrano tali quali quelli intel e di certo anche fossero 10°C, sono davvero un problema?
Il paragone pc/motori non sempre è azzeccato e il tuo esempio è davvero fuori luogo, sarebbe corretto se 1 kwh costasse come la verde, allora si che avresti più che ragione ma così non è per tanto paragonare jeep e ferrari per una percorrenza di x km è davvero senza senso perchè sono cose completamente diverse. La concezione della jeep dovrebbe essere "fuori strada", il ferrari l'opposto. Che poi è senza senso proprio il paragone, bha. Cpu amd e intel non sembrano su questi livelli.
Appunto che i soldi sono i miei decido come spenderli e non c'è bisogno che vieni tu a imporre la retta via. Io non ho mai detto che amd sia meglio d'intel, non ho mai detto che amd vada meglio di intel ma anzi qualche post sopra ho detto chiaramente che ero li li per prendere il 4770k (o 4670k) poi invece ho optato per l'8350 e mi ci trovo bene, non ho problemi, riesco a giocare a tutto senza difficoltà per tanto SI dal mio punto di vista è stata una scelta intelligente poi ognuno pensa, compra e dici quel che gli pare. Ma perchè dovrei dire che non è una scelta corretta? Che motivo avrei? Dico chiaramente che se vuoi il top in tutti gli ambiti prendi intel se no prendi amd che tanto differenze astronomiche NON NE VEDRAI per l'uso gaming, almeno io non ne vedo.
Anche questo l'ho detto nel post sopra in risposta a @devilred, dicendo chiaramente che pure io se dovessi far rendering comprerei OVVIAMENTE un intel perchè più performante perchè consuma meno e per questo lavoro amd non è indicata, ma dato io non faccio rendering questa cosa non m'interessa minimamente.
Non è che amd costa meno perchè va meno, costa meno perchè non c'è nessuno che ottimizza per amd: abbiamo notato chiaramente (bf4, crysis3) come giochi ottimizzati per 8 core annullino praticamente il divario tra 4770k e 8350, il problema è che sono giochi che si contano su di una mano. Costa anche meno perchè non ha monopolio, non ha partnership con nessuno, dimmi quanti amd vedi in un mercatone e quanti intel eppure io ho preso un ultrabook amd che funziona una meraviglia.
E' vero, solo la crisi è limitante ma i fattori sono tanti del perchè amd cala e non riesce a volare, in primis l'ottimizzazione per amd praticamente INESISTENTE, roba da poco? Non direi...
scusa per il quotone, col pc non fai rendering, ok, qui gli amd sono scarsi, giochi e anche qui sono scarsi( soprattutto se i giochi non sono ottimizzati per il multicore), nel multimediale non e' che siano dei fenomeni, in single thread le prendono anche dal mio i5 750. l'unica parte dove vanno bene e nell'estrarre da archivi zip, mah! se queste cpu non sono aborto allora non so cosa siano.
CrapaDiLegno
18-04-2014, 16:07
Indipendentemente da quello che pensi dei test di Anandtech (che per me sono i migliori) i tuoi sono completamente sballati. Hai compaatoi il cnsumo reale del tuo procio con quello fantastico di 110W di un 4770K che ha TDP di 90W.
Poi la questione GPU non l'hai proprio capita... le CPU 4xxx Intel consumano massimo 90W quando anche la GPU è in funzione (le 3xxx 77W, quindi molto meno conprestazioni CPU similari). Montaci una discreta cpme per la piattaforma AMD e il procio Intel consuma quasi la metà del proprio TDP quando è in full. Ecco perché il divario che hai calcolato tu tra il tuo FX e l'Intel è sbaglaito a prescindere. La CPU Intel non consuma solo 35W in meno già sulla carta. I test dimostrano infatti che alla fine il divario (contando anche il chipset, anche quello consuma e non poco) è intorno a 100W.
Prestazionalmente concordo con te che il 8350 è veloce abbastanza per fare qualsiasi cosa. Non sono certo quei 3 o 4 secondi in più nelle operazioni di tutti i giorni a fare la differenza per uno che non lo usa al 100% 24/24.
Ma se devo avere prestazioni inferiori e consumo superiore (tanto consumo superiore, non come dici tu) allora non ha alcun senso.
Il valore dei micro FX di AMD è dato dal fatto che non li vuole nessuno. Per un motivo o per l'altro sono delle padelle di silicio che non fanno quello che in teoria potrebbero ma consumano più di quel che devono.
Questo è vero e in alcuni casi neanche poco però è anche vero che non è colpa di amd se le case videoludiche spendono più soldi in marketing che nella produzione del loro titolo, cioè preferisco far pubblicità piuttosto che ottimizzare un titolo al meglio per farlo andare bene anche su amd. Per esempio Battlefield 4 dai test l'8350 va quasi come un 4770k (se non sbaglio.
No, non è proprio così.
1. Non abusiamo della parola "ottimizzazione". Costruire motori che usano più thread non è cosa semplice e ha il suo lato negativo. Funzionano bene su micro che hanno tanti core, ma molto meno su quelli che hanno pochi core. E di i3 ce ne sono in giro tantissimi. E sono anche loro un mercato a cui vendere giochi.
2. Il problema è di AMD, non degli sviluppatori. Se AMD ai tempi ha pensato che il mondo si fosse multi-thredizzato in un baleno (come oggi crede che il mondo si HSAizzerà in un altro baleno) non è colpa dell'informatica o della logica umana in generale, che non rende semplice lo scomporre i problemi in più sottoproblemi indipendenti (base per dividere in più thread una soluzione).
Quindi il fatto che i processori Intel siano nettamente più efficienti in monotasking non è una colpa né di Intel né dei programmatori ma di AMD stessa che come come le GPU (strategia infatti ora abbandonata) pensava che "piccolo, snello e numeroso" funzionasse meglio di grande e monolitico.
La realtà è ben diversa e l'ottimizzazione vera la deve fare lei con i suoi transistor, non lasciare che siano (sempre) gli altri a sobbarcarsi il lavoro aggiuntivo di colmare le sue lacune per scelte strategiche poi rivelatesi sbagliate.
E non ho paragonato la Jeep ad una Ferrari, ma ad un'auto comoda per fare viaggi lunghi.
Se neanche il parallelismo con le auto non ti è chiaro, allora non posso che lasciarti alle tue convinzioni che tra un 4770K (o peggio un 3770K) ci siano solo 35W di differenza e che il 8350 abbia un senso di esistere.
Hulk9103
18-04-2014, 17:23
scusa per il quotone, col pc non fai rendering, ok, qui gli amd sono scarsi, giochi e anche qui sono scarsi( soprattutto se i giochi non sono ottimizzati per il multicore), nel multimediale non e' che siano dei fenomeni, in single thread le prendono anche dal mio i5 750. l'unica parte dove vanno bene e nell'estrarre da archivi zip, mah! se queste cpu non sono aborto allora non so cosa siano.
Si ok ma non è che uno va 100 e l'altro va 5, che cavolo da come parli sembra paragoni un processore ad una lavatrice. Peggio di una tragedia oh...
Per assurdo anche la pasta del capitano è un aborto però dato è intel si scoperchia e via facendo finta di niente :D
..cut..
Portalo te allora un test fatto da te personalmente e confrontalo con quello che ti dico io, perchè a parlare siamo capaci tutti e portare le prove pochi.
Ho detto che il mio pc in full consuma 330w ok? togli 130 watt della vga, una 560 e rimangono 200 watt; non consideriamo le periferiche (1hdd e 1 lettore + ventole + wifi, ram) e contiamo la sabertooth 990fx, vuoi che non consuma almeno 50watt? da 330watt REALI misurati con strumenti arriviamo a 150watt circa che sono della cpu. Ho detto 30-40 watt in più, to vuoi fare in primo della classe facendo il pignolo? Facciamo che ne consuma 50 in più dai ai fini del calcolo che ho fatto prima cosa ti cambia? 5 euro all'anno? Ah bhe wow 10 e lode a te. Il mio discorso era tutto incentrato su quello.
E comunque sto parlando di cpu, non ho nominato le mobo. Certo che se vai sul sito di enermax per esempio e fai il calcolo di un pc con mobo high-end, una 7970 poi un 4770k e poi 8350 la differenza di alimentatori è di 30 watt, cioè consigliano un 400 watt per amd e un 370 per intel :fagiano:
Anche qua vorrei capire: se la differenza è di come dici te QUASI 100 watt tra mobo e cpu perchè consigliano un alimentatore praticamente tale e quale quello di intel ?? Caz ci sono 100 watt di differenza....
1) Esistono giochi fatti per 2 soli core, come fai a dire non abusiamo della parola ottimizzazione?? Al giorno d'oggi in ambito gaming esiste veramente pochissima ottimizzazione e non lo dico io ma è un dato di fatto e gli ultimi titoli come bf4 e crysis 3 dimostrano come un ottimizzazione possa accelerare e non di poco soprattutto amd. Quindi si l'ottimizzazione MANCA perchè per far soldi si taglia proprio quella ed escono giochi "semi-completi"...
2) Cosa vuol dire sempre siano gli altri a ottimizzare per lei? Perchè intel ottimizza? Io penso proprio che intel fa un processore e poi le applicazioni vengono ottimizzate per usare o meno core/thread, se il software dice NO io il thread non lo uso intel può pregare in cinese ma tranquillo che il thread non lo usa, quindi veramente non capisco che colpa ne abbia amd cosi come intel. La colpa più lampante sta nelle mani dei programmatori (a volte spinti anche da intel e dai dati di vendita) a ottimizzare per il multi-thread piuttosto che per il multi-core ed è ovvio che intel va avanti e amd va indietro.
Nonostante questo ha creato Mantle appunto per non lasciare lavorare troppo gli altri, sia mai eh...
Inoltre come leggo anche in giro e gia sapevo il tdp non è il consumo della cpu ma "Il Thermal Design Power (TDP, chiamato anche Thermal Design Point) rappresenta un'indicazione del calore (energia) dissipato da un processore, che il sistema di raffreddamento dovrà smaltire per mantenere la temperatura del processore stesso entro una soglia limite. La sua unità di misura è il watt."
Non sempre il paragone con le auto/motori è corretto e in questo caso secondo me non c'entra una fava perchè qui non si parla di comodità: avere amd o intel mi permette di giocare in maniere eccellente in ogni caso seppur con uno un po meglio ma la differenza non è di certo come il giorno e la notte; fare 1000km con una jeep o un audi no perchè probabile con la prima arriverei tutto rotto a destinazione.
devilred
18-04-2014, 18:23
ahhahahaha!!! vabbe ammetto la mia antipatia verso le cpu AMD, pero' lo tengo un PH II X4 955, la differenza col core i5 750 e' imbarazzante.
marchigiano
18-04-2014, 19:33
se vai sui siti (enermax, cooler master...) dove calcoli quanta potenza ti serve tra 4770k e 8350 ci sono 30-40 watt di differenza.
se vai sui siti prendi le fregature, io i consumi li misuro col tester....
Perchè alimentatore più grosso? Io ho comprato un 630w e avrei preso lo stesso identico alimentatore anche prendendo Intel quindi nessun costo aggiuntivo.
e vabbè se non sai fare i sistemi che è colpa mia? :D :D io il 4770 l'ho fatto andare con un 200W e si sforzava appena... se ci mettevo il 8350 manco si accendeva :asd:
Mhhhh sto problema non mi si è mai presentato (ho la sabertooth)
ma hai provato a inserire e disinserire hard disk da acceso? no perchè allora potrei avere un problema con la mia...
ed inoltre non è vero che le mobo costano di più e non è neanche vero che ti serve una mobo con fasi robuste. Prima della saber avevo una mobo normalissima am3+ da 60 euro e andava esattamente come adesso, scontato dire che prima non potevo fare OC ma si sa che per fare OC servono le mobo buone sia da intel che da amd. In ogni caso la controparte intel della saber ti costa a partire da 140 euro..... quindi stamminchia che costa di più....
la sabertooth intel è nettamente superiore alla amd, anche come estetica con la placca che la copre integralmente.
scusa ma c'è un bel incremento di fatturato rispetto allo stesso trimestre dell'anno scorso...
ok ma fatturare di più per guadagnare di meno...
Hulk9103
18-04-2014, 19:50
se vai sui siti prendi le fregature, io i consumi li misuro col tester....
Quello che ho detto pure io ma dato che ci sono 5 persone che lo fanno bisogno sempre andare sui siti per fare esempi.... Non credo che tutti a casa abbiano gli strumenti per poterlo fare.
e vabbè se non sai fare i sistemi che è colpa mia? :D :D io il 4770 l'ho fatto andare con un 200W e si sforzava appena... se ci mettevo il 8350 manco si accendeva :asd:
Non sono una cima assoluta eh ma avendoci lavorato saprò come fare un pc e se ho preso un 630w ci sarà un motivo no? Che poi il mio obiettivo non è di certo gareggiare con chi ha l'alimentatore più piccolo, cioè proprio non m'interessa, anche perchè se un giorno lo volessi vendere o mettere una vga come fai? Eh bhe l'alimentatore da 200w è sicuramente il migliore acquisto. ZERO riutilizzo se non in quel specifico caso. Poi sono io a non saper fare sistemi? :D :D
ma hai provato a inserire e disinserire hard disk da acceso? no perchè allora potrei avere un problema con la mia...
O_O e per quale motivo dovrei farlo scusa? Ah già per risparmiare i 20 secondi dell'accensione forse meno con ssd.....
la sabertooth intel è nettamente superiore alla amd, anche come estetica con la placca che la copre integralmente.
Costa anche 50-60 euro in più ci mancherebbe solo che fosse peggio. :doh:
Littlesnitch
18-04-2014, 19:59
Dico solo una cosa, un 4770K per farlo consumare 110W lo devi come minimo scoperchiare e metterci un WB, altrimenti non ci arriverà mai! Io sono simpatizzante AMD da sempre, ma IMHO un FX è ad oggi un acquisto sbagliato a prescindere.
Littlesnitch
18-04-2014, 20:01
scusa ma c'è un bel incremento di fatturato rispetto allo stesso trimestre dell'anno scorso...
Vediamo di non confondere incassi e guadagni, dove i secondi sono nettamente più importanti ;)
marchigiano
18-04-2014, 20:24
Dico solo una cosa, un 4770K per farlo consumare 110W lo devi come minimo scoperchiare e metterci un WB, altrimenti non ci arriverà mai! Io sono simpatizzante AMD da sempre, ma IMHO un FX è ad oggi un acquisto sbagliato a prescindere.
ma che dici :doh: scoperchiando mica calano i consumi, aumenta il trasferimento di calore verso il dissi quindi il die sta più fresco
Non sono una cima assoluta eh ma avendoci lavorato saprò come fare un pc e se ho preso un 630w ci sarà un motivo no? Che poi il mio obiettivo non è di certo gareggiare con chi ha l'alimentatore più piccolo, cioè proprio non m'interessa, anche perchè se un giorno lo volessi vendere o mettere una vga come fai? Eh bhe l'alimentatore da 200w è sicuramente il migliore acquisto. ZERO riutilizzo se non in quel specifico caso. Poi sono io a non saper fare sistemi? :D :D
è un sfx... però rimane il principio che se un sistema consuma meno richiede un ali che costa meno. tra l'altro mettere un 630w per un 4770 significa farlo lavorare nella zona di efficienza inferiore
O_O e per quale motivo dovrei farlo scusa? Ah già per risparmiare i 20 secondi dell'accensione forse meno con ssd.....
:doh: ma che cavolo di ragionamento è? se a me serve l'hot swap voglio una mobo che lo supporti bene, se non l'hai provato che stai a dire che non ti da problemi?
Costa anche 50-60 euro in più ci mancherebbe solo che fosse peggio. :doh:
ok ma allora non puoi dire che costa di più a pari features... se la 990fx costa meno è perchè vale meno
cdimauro
18-04-2014, 21:29
"Aspettate"... in verità quanti anni è che aspettiamo.
Un mercato con una AMD più competitiva non ci avrebbe certamente portato alla strategia "Tick-Tick" di Intel che da ormai 6 anni non sforna più niente di davveri utile al mercato (e poi ci si lamenta che il mondo PC non si agggiorna).
Proprio negli ultimi 6 anni sono venute fuori le cose più interessanti da Intel. Basti vedere le innovazioni introdotte.
Guardacaso, nel mercato mobile dove Intel è indietro la strategia tick-tock non è applicata, anzi si fanno tock di due passi invece che uno soltanto negli anni dispari.
Diciamo che ha perso troppo tempo in ambito mobile, adottando troppo a lungo un vecchio processo produttivo, quando invece serviva passare velocemente al nuovo. All'epoca credo che abbia preferito continuare a focalizzarsi sul mercato desktop per passare al processo produttivo più innovativo.
E il fatto che Intel svenda i suoi Atom per renderli competitivi la dice lunga su quanto il mercato abbia perso in questi anni con la competizione nel mercato desktop (e server) completamente anemica.
Le innovazioni in quest'ambito ci sono state, e anzi hanno portato a dei notevoli cambiamenti che si aspettavano da parecchio tempo.
L'unica speranza è che ARM o chiunque altro spacchi definitivamentre il duopolio Wintel che è come una catena che tiene legato un titano. Liberati dalla catena il mercato potrà crescere a dismisura tecnologicamente e quindi aprire a nuovi sviluppi che oggi sono preclusi.
Quale crescita tecnologica ci sarebbe? E quali nuovi sviluppi ci sarebbero?
cdimauro
18-04-2014, 21:34
Per assurdo anche la pasta del capitano è un aborto però dato è intel si scoperchia e via facendo finta di niente :D
Scusami, mi stai dicendo che per far funzionare correttamente un processore Intel serva scoperchiarlo (e sistemare la pasta con della nuova, immagino)?
2) Cosa vuol dire sempre siano gli altri a ottimizzare per lei? Perchè intel ottimizza? Io penso proprio che intel fa un processore e poi le applicazioni vengono ottimizzate per usare o meno core/thread, se il software dice NO io il thread non lo uso intel può pregare in cinese ma tranquillo che il thread non lo usa, quindi veramente non capisco che colpa ne abbia amd cosi come intel. La colpa più lampante sta nelle mani dei programmatori (a volte spinti anche da intel e dai dati di vendita)
Spinti da Intel per cosa? Spiegati meglio, che non è chiaro.
a ottimizzare per il multi-thread piuttosto che per il multi-core ed è ovvio che intel va avanti e amd va indietro.
Intel offre processori per entrambi i casi. Dunque di che stai parlando?
Nonostante questo ha creato Mantle appunto per non lasciare lavorare troppo gli altri, sia mai eh...
Che è tutt'altra cosa, mi pare. O Mantle per caso NON gira sui processori Intel?
Hulk9103
18-04-2014, 22:45
è un sfx... però rimane il principio che se un sistema consuma meno richiede un ali che costa meno. tra l'altro mettere un 630w per un 4770 significa farlo lavorare nella zona di efficienza inferiore
:doh: ma che cavolo di ragionamento è? se a me serve l'hot swap voglio una mobo che lo supporti bene, se non l'hai provato che stai a dire che non ti da problemi?
ok ma allora non puoi dire che costa di più a pari features... se la 990fx costa meno è perchè vale meno
1) Si ma il 630w infatti l'ho preso per uno cross/sli, non è che l'ho comprato perchè mi andava di spendere soldi sia chiaro; e poi mi sarà sicuramente più facile da rivendere piuttosto di un 300w.
2) Mi sono espresso male scusami. Non mi da problemi nel senso che non mi serve a casa e non è un problema e/o una feature importante per farmi preferire l'uno o l'altro, tutto qua. Se poi a te serve comprati intel cosa devo dirti? Se amd ti da problemi la soluzione è quella, io non c'entro nulla.
3) Guarda che tra la saber 990fx e la z87 non cambia nulla oltre al chip tranne rivestimento della seconda..... ma non credo basti per giustificare 50 euro in più........ anzi la z87 mi pare abbia anche 2 ventoline per il circolo tra la "lamiera" e il silicio e quindi è anche più rumorosa della amd :asd:
Scusami, mi stai dicendo che per far funzionare correttamente un processore Intel serva scoperchiarlo (e sistemare la pasta con della nuova, immagino)?
Spinti da Intel per cosa? Spiegati meglio, che non è chiaro.
Intel offre processori per entrambi i casi. Dunque di che stai parlando?
Che è tutt'altra cosa, mi pare. O Mantle per caso NON gira sui processori Intel?
No ma se lo vuoi overcloccare o dissiparlo bene dovresti farlo e non sono di certo io a dirlo...
Tu guardando le partnership Intel con il 90% dei produttori di assemblati e windows per cosa ottimizzeresti ??? Bhe per amd mi sembra ovvio :asd: Cosa c'è da spiegare meglio? Io stesso se ora per assurdo mi metterei a programmare un software per windows l'ottimizzerei in modo migliore per Intel dato che sta su il 70% dei computer e oltre, mi pare ovvio no? E' una questione di cash.
Si ma non tutti hanno bisogno di cpu da 1000 euro per fare render e a chi serve qualcosa di meno può andare benissimo anche un 4770k o qualcosina di più senza sborsare fior di mila euro. Ognuno ha le sue necessità non è che se fai render allora devi prendere processori da 10000 euro.
Bhe Mantle in una parola è quell'ottimizzazione in ambito gaming che stenta ad arrivare da tutti i fronti. Qualcuno doveva farlo e ci ha pensato amd, che poi sia manna dal cielo o cacca io non lo so ma di sicuro da qualcuno doveva arrivare. E si ne trae profitto pure intel quindi dovrebbe solo ringraziare amd in questo caso perchè il favore oltre tutto è GRATIS.
Sia su cpu intel che su amd dove con le directx fanno 30 fps con mantle ne hanno 50..... almeno, per quello che ho letto io. Cavolo è il 60-70% di prestazioni in più a parità di hardware.
marchigiano
18-04-2014, 23:37
1) Si ma il 630w infatti l'ho preso per uno cross/sli, non è che l'ho comprato perchè mi andava di spendere soldi sia chiaro; e poi mi sarà sicuramente più facile da rivendere piuttosto di un 300w.
be ma chiaro più potenza ti serve per le vga meno la percentuale che va al processore è determinante
2) Mi sono espresso male scusami. Non mi da problemi nel senso che non mi serve a casa e non è un problema e/o una feature importante per farmi preferire l'uno o l'altro, tutto qua. Se poi a te serve comprati intel cosa devo dirti? Se amd ti da problemi la soluzione è quella, io non c'entro nulla.
ma no anche su a88x funziona perfettamente, h81 funziona perfettamente, 990fx non so devo risolvere... i driver del chipset sono 800mega!!!!! e ancora non va bene....
3) Guarda che tra la saber 990fx e la z87 non cambia nulla oltre al chip tranne rivestimento della seconda..... ma non credo basti per giustificare 50 euro in più........ anzi la z87 mi pare abbia anche 2 ventoline per il circolo tra la "lamiera" e il silicio e quindi è anche più rumorosa della amd :asd:
se sapessi che temperature raggiungono i vrm della 990fx rimpiangeresti il minimo rumore delle ventole :sofico:
la z87 ha anche la porta hdmi e DP, un sensore di temperatura posizionabile a piacere, un software specifico per la gestione della mobo, le cover per coprire le connessioni inutilizzate... roba inutile certo ma all'appassionato piace e ripeto che un 4770k (scoperchiato) lo clocchi bene anche con una asrock da 80€ e un dissi da 40€
cdimauro
19-04-2014, 05:49
No ma se lo vuoi overcloccare o dissiparlo bene dovresti farlo e non sono di certo io a dirlo...
OK, adesso è chiaro. Ma è una cosa che la stragrande maggioranza degli utenti NON fa perché usano la CPU così com'è. Per i suoi prodotti Intel deve preoccuparsi della massa o di una microscopica nicchia di mercato?
Tu guardando le partnership Intel con il 90% dei produttori di assemblati e windows per cosa ottimizzeresti ??? Bhe per amd mi sembra ovvio :asd: Cosa c'è da spiegare meglio? Io stesso se ora per assurdo mi metterei a programmare un software per windows l'ottimizzerei in modo migliore per Intel dato che sta su il 70% dei computer e oltre, mi pare ovvio no? E' una questione di cash.
C'è da spiegare cosa intendi per "ottimizzare", che non è affatto chiaro. Non è importante ciò che pensi, ma i FATTI: cos'è che gli sviluppatori farebbero per ottimizzare appositamente per Intel e, viceversa, per non farlo su AMD? Anche un esempio pratico mi andrebbe bene; e no, dire "guarda BF4 e Crysis 3" NON è un esempio pratico, perché m'interessa conoscere le differenze TECNICHE fra un codice ottimizzato appositamente per Intel e uno che non lo sia.
Si ma non tutti hanno bisogno di cpu da 1000 euro per fare render e a chi serve qualcosa di meno può andare benissimo anche un 4770k o qualcosina di più senza sborsare fior di mila euro. Ognuno ha le sue necessità non è che se fai render allora devi prendere processori da 10000 euro.
Non hai risposto alla mia domanda. Cosa non ti è chiaro del fatto che Intel vende processori che coprono entrambe le casistiche delle tipologie di CPU che hai elencato? Se fosse come dici tu, ottimizzare appositamente per una classe di processori equivarrebbe a penalizzare l'altra, e in questa casistica rientrerebbero ovviamente anche quelle CPU di Intel che appartengono a questa classe.
Dunque, ripeto, di cosa stai parlando? Come fai a dire "ovvio che Intel va avanti e AMD indietro", quando dovrebbero andare indietro anche le CPU di Intel che hanno un'architettura simile a quella di AMD?
Il problema, piuttosto, è un altro: AMD soffre di prestazioni non paragonabili in single thread/core rispetto a Intel, ma... non è certo un problema di quest'ultima, che è andata avanti ANCHE in quest'ambito. Cosa avrebbe dovuto fare Intel, aspettare AMD? Fare le stesse, sbagliate, scelte microarchitetturali? Non so, dimmi tu.
Bhe Mantle in una parola è quell'ottimizzazione in ambito gaming che stenta ad arrivare da tutti i fronti. Qualcuno doveva farlo e ci ha pensato amd, che poi sia manna dal cielo o cacca io non lo so ma di sicuro da qualcuno doveva arrivare.
Arriveranno pure le DirectX 12, mi pare, dopo 4 anni di gestazione.
E si ne trae profitto pure intel quindi dovrebbe solo ringraziare amd in questo caso perchè il favore oltre tutto è GRATIS.
Non vedo perché: non mi risulta che Mantle giri sulle GPU di Intel, visto che queste API sono state pensate per calzare perfettamente sugli stream processor di AMD basati su architettura GCN.
Quando si realizzano delle API si dovrebbe pensare a una più vasta audience, non soltanto ai propri prodotti.
Sia su cpu intel che su amd dove con le directx fanno 30 fps con mantle ne hanno 50..... almeno, per quello che ho letto io. Cavolo è il 60-70% di prestazioni in più a parità di hardware.
Sono degli ottimi risultati, ma dipendono dalla configurazione hardware. Per il resto, vedi sopra.
P.S. Si dice "mi mettessi", non "mi metterei".
Littlesnitch
19-04-2014, 08:57
ma che dici :doh: scoperchiando mica calano i consumi, aumenta il trasferimento di calore verso il dissi quindi il die sta più fresco
Ecco bravo prenditi a colpi in fronte, se non capisci quello che leggi è inutile che fai il saccente. Io ho detto un'altra cosa, che evidentemente non hai capito e non credo abbia senso provare a spiegartela.
Hulk9103
19-04-2014, 12:21
OK, adesso è chiaro. Ma è una cosa che la stragrande maggioranza degli utenti NON fa perché usano la CPU così com'è. Per i suoi prodotti Intel deve preoccuparsi della massa o di una microscopica nicchia di mercato?
Assolutamente non mi preoccuperei nemmeno io dello 0.05% e vorrei ben vedere però mi chiedo per quale motivo hanno cambiato metodo rispetto i vecchi 2600, alla fine anche ad usare la cpu cosi com'è ed avere un 5°C forse 10°C (la sparo, non lo so) in meno SENZA accorgimenti vari non è di certo un peccato giusto? E questo è per la totalità dell'utenza e non certo di nicchia.
C'è da spiegare cosa intendi per "ottimizzare", che non è affatto chiaro. Non è importante ciò che pensi, ma i FATTI: cos'è che gli sviluppatori farebbero per ottimizzare appositamente per Intel e, viceversa, per non farlo su AMD? Anche un esempio pratico mi andrebbe bene; e no, dire "guarda BF4 e Crysis 3" NON è un esempio pratico, perché m'interessa conoscere le differenze TECNICHE fra un codice ottimizzato appositamente per Intel e uno che non lo sia.
Non hai risposto alla mia domanda. Cosa non ti è chiaro del fatto che Intel vende processori che coprono entrambe le casistiche delle tipologie di CPU che hai elencato? Se fosse come dici tu, ottimizzare appositamente per una classe di processori equivarrebbe a penalizzare l'altra, e in questa casistica rientrerebbero ovviamente anche quelle CPU di Intel che appartengono a questa classe.
Dunque, ripeto, di cosa stai parlando? Come fai a dire "ovvio che Intel va avanti e AMD indietro", quando dovrebbero andare indietro anche le CPU di Intel che hanno un'architettura simile a quella di AMD?
Azzo te mi chiedi cose specifiche che io non essendo un programmatore non so :)
Provo a risponderti dal mio poco sapere: un esempio pratico di ottimizzazione? Una "x" applicazione che usa 4 core e 4 thread, secondo te andrà meglio con un 8350 o un 4770?? Anche a parità prestazionale su single core. Ovviamente se programmi un'app esclusivamente per 8 core amd darà la pasta ad intel e questo non è deciso nè da Intel nè da AMD ma da chi produce software e se io produttore decido che la mia app deve usare MASSIMO 4 core gli altri 4 non andranno. Come del resto se sviluppi app che non usano i thread Intel rimane indietro.
Io ho l'8350 no? e mi capita spesso di usare app o giochi dove 2-4 core sono totalmente inattivi, è praticamente impossibile che una cpu amd ti lavori al 100% se non utilizzando programmi come occt, bf4 (neanche così tanto alla fine), il resto te lo sogni; ovviamente in parte succede anche con Intel sia chiaro.
Questa è l'ottimizzazione più grande che manca secondo me, l'hardware che abbiamo sul mercato non è minimamente sfruttato e sia chiaro mi riferisco alla totalità: da intel ad amd, da amd a nvidia... Questo è un discorso di uno che di programmazione ne capisce zero sia chiaro quindi non mi permetto di dire che sia giusto, semplicemente leggendo altri utenti e testate mi sono fatto quest'idea che può benissimo essere una cavolata. ;)
Infatti amd secondo me è penalizzata, come ho detto sopra, programmare un app per 4 core e 4 thread penalizza amd così come programmare un app per 8 core penalizzi intel. Poi non mi pare che le architetture di amd e intel siano simili, anzi.... però non m'inoltro perchè qui veramente non lo so e quindi taccio.
Il problema, piuttosto, è un altro: AMD soffre di prestazioni non paragonabili in single thread/core rispetto a Intel, ma... non è certo un problema di quest'ultima, che è andata avanti ANCHE in quest'ambito. Cosa avrebbe dovuto fare Intel, aspettare AMD? Fare le stesse, sbagliate, scelte microarchitetturali? Non so, dimmi tu.
Bhe è facile andare avanti quando si hanno partnership con il 90% dei produttori di pc, Intel non deve assolutamente aspettare amd però è facile... Conta anche che intel guadagna il 57% di ogni unità venduta (non mi ricordo se netti o lordi) cosa non da sottovalutare in quanto denota un maggior investimento in ricerca e sviluppo.
Arriveranno pure le DirectX 12, mi pare, dopo 4 anni di gestazione.
Non vedo perché: non mi risulta che Mantle giri sulle GPU di Intel, visto che queste API sono state pensate per calzare perfettamente sugli stream processor di AMD basati su architettura GCN.
Quando si realizzano delle API si dovrebbe pensare a una più vasta audience, non soltanto ai propri prodotti.
Si finalmente e annunciate dopo Mantle.... secondo la mia modesta opinione le directx 12 sono più una markettata che ms ha fatto per riuscire a vendere W8 dato che le vendite stentano a decollare e infatti le DX12 saranno ESCLUSIVA di W8, coincidenza? Direi proprio di no perchè non hanno davvero NESSUN motivo per non metterle su W7.
Mantle non gira sulle GPU altrui è vero ma gira tranquillamente sulle CPU altrui quindi intel ci guadagna e se consideri che Mantle è fatta soprattutto per applicazioni particolarmente esose dove di certo non si usano gpu integrate e quindi a Intel secondo me non gliene può fregare di meno.
Poi stando alle loro dichiarazioni rimarranno "close" per il momento di "decollo" ma poi le renderanno "Open" quindi a tutti le altre gpu.
Vero, ma è anche vero che il più grosso difetto delle DX sono appunto la vasta gamma di audience, quello è il loro PRIMO grande difetto, hanno abbracciato (giustamente) la "totale" compatibilità con tutto a discapito della potenza. E' normale che più compatibilità significa meno potenza
Sono degli ottimi risultati, ma dipendono dalla configurazione hardware. Per il resto, vedi sopra.
Bhe basta avere una gpu amd per farlo funzionare, nulla di strano. A mio parere anche se diventassero open nvidia per amor proprio non dovrebbe MAI sposarle, è come dire che il mio avversario è migliore di me, sarebbe veramente patetico per nvidia.
P.S. Si dice "mi mettessi", non "mi metterei".
Thanks ;)
marchigiano
19-04-2014, 14:32
Ecco bravo prenditi a colpi in fronte, se non capisci quello che leggi è inutile che fai il saccente. Io ho detto un'altra cosa, che evidentemente non hai capito e non credo abbia senso provare a spiegartela.
intendevi dire che per dissipare 110W devi scoperchiarlo altrimenti va prima in protezione? ho provato ma regge, siamo al limite ma regge
cdimauro
19-04-2014, 18:33
Assolutamente non mi preoccuperei nemmeno io dello 0.05% e vorrei ben vedere però mi chiedo per quale motivo hanno cambiato metodo rispetto i vecchi 2600, alla fine anche ad usare la cpu cosi com'è ed avere un 5°C forse 10°C (la sparo, non lo so) in meno SENZA accorgimenti vari non è di certo un peccato giusto? E questo è per la totalità dell'utenza e non certo di nicchia.
Se per la stragrande maggioranza dell'utenza quella pasta va bene, Intel non ha alcun motivo per cambiarla per favorire soltanto una trascurabile briciola.
Azzo te mi chiedi cose specifiche che io non essendo un programmatore non so :)
L'avevo capito da come parlavi. Pensavo che magari avessi letto qualche notizia in merito alla questione delle ottimizzazioni che avevi scritto.
Provo a risponderti dal mio poco sapere: un esempio pratico di ottimizzazione? Una "x" applicazione che usa 4 core e 4 thread, secondo te andrà meglio con un 8350 o un 4770?? Anche a parità prestazionale su single core. Ovviamente se programmi un'app esclusivamente per 8 core amd darà la pasta ad intel
Non è affatto detto che sia così; ovviamente a parità di core.
e questo non è deciso nè da Intel nè da AMD ma da chi produce software e se io produttore decido che la mia app deve usare MASSIMO 4 core gli altri 4 non andranno. Come del resto se sviluppi app che non usano i thread Intel rimane indietro.
E' facile che rimanga indietro anche AMD per lo stesso motivo, visto che i due core di un modulo condividono molte risorse.
Io ho l'8350 no? e mi capita spesso di usare app o giochi dove 2-4 core sono totalmente inattivi, è praticamente impossibile che una cpu amd ti lavori al 100% se non utilizzando programmi come occt, bf4 (neanche così tanto alla fine), il resto te lo sogni; ovviamente in parte succede anche con Intel sia chiaro.
Questa è l'ottimizzazione più grande che manca secondo me, l'hardware che abbiamo sul mercato non è minimamente sfruttato e sia chiaro mi riferisco alla totalità: da intel ad amd, da amd a nvidia... Questo è un discorso di uno che di programmazione ne capisce zero sia chiaro quindi non mi permetto di dire che sia giusto, semplicemente leggendo altri utenti e testate mi sono fatto quest'idea che può benissimo essere una cavolata. ;)
In estrema sintesi: non puoi sempre sfruttare tutti i core e/o thread, perché esistono algoritmi che non sono parallelizzabili / distribuibili, o che lo sono poco.
Di questo non puoi accusare gli sviluppatori, perché non possono farci niente.
Infatti amd secondo me è penalizzata, come ho detto sopra, programmare un app per 4 core e 4 thread penalizza amd così come programmare un app per 8 core penalizzi intel.
Non vedo perché dovrebbe essere penalizzata quest'ultima.
Poi non mi pare che le architetture di amd e intel siano simili, anzi.... però non m'inoltro perchè qui veramente non lo so e quindi taccio.
Sono simili perché due core di un modulo di AMD condividono molte risorse hardware a disposizione, similmente a quanto avviene per Intel con l'Hyperthreading. Ovviamente ci sono altre cose che differenziano le due architetture.
Bhe è facile andare avanti quando si hanno partnership con il 90% dei produttori di pc, Intel non deve assolutamente aspettare amd però è facile... Conta anche che intel guadagna il 57% di ogni unità venduta (non mi ricordo se netti o lordi) cosa non da sottovalutare in quanto denota un maggior investimento in ricerca e sviluppo.
Senz'altro, ma AMD in passato è stata in grado di produrre ottime architetture pur avendo a disposizione un budget nettamente inferiore a Intel.
Si finalmente e annunciate dopo Mantle.... secondo la mia modesta opinione le directx 12 sono più una markettata che ms ha fatto per riuscire a vendere W8 dato che le vendite stentano a decollare e infatti le DX12 saranno ESCLUSIVA di W8, coincidenza? Direi proprio di no perchè non hanno davvero NESSUN motivo per non metterle su W7.
Scelte di Microsoft.
Comunque le DirectX 12 sono in lavorazione da tempo; com'è anche ovvio che fosse, visto che Microsoft non s'è mai fermata nello sviluppo delle sue librerie.
Mantle non gira sulle GPU altrui è vero ma gira tranquillamente sulle CPU altrui quindi intel ci guadagna e se consideri che Mantle è fatta soprattutto per applicazioni particolarmente esose dove di certo non si usano gpu integrate e quindi a Intel secondo me non gliene può fregare di meno.
A Intel interessa che vengano sfruttati i suoi prodotti, e lo fa con progetti come LLVM o OpenCL anziché con API pseudo-aperte (vedi sotto).
Poi stando alle loro dichiarazioni rimarranno "close" per il momento di "decollo" ma poi le renderanno "Open" quindi a tutti le altre gpu.
Il che depone a loro sfavore, perché vuol dire che AMD vuole capitalizzare il vantaggio a discapito degli altri. Per cui gli altri non hanno interesse a supportare Mantle, e questo significa che queste API sono destinate a rimanere emarginate, o all'oblio.
Gli standard, anche se solamente di fatto, si realizzano con ben altre modalità.
Vero, ma è anche vero che il più grosso difetto delle DX sono appunto la vasta gamma di audience, quello è il loro PRIMO grande difetto, hanno abbracciato (giustamente) la "totale" compatibilità con tutto a discapito della potenza. E' normale che più compatibilità significa meno potenza
E' anche normale che uno standard sia pensato per un uso più generale anziché fatto su misura di una ben precisa architettura.
Con le DirectX 12, infatti, si otterranno numerosi vantaggi prestazionali, ma senza richiedere che le architetture delle GPU siano come la GCN di AMD.
Bhe basta avere una gpu amd per farlo funzionare, nulla di strano. A mio parere anche se diventassero open nvidia per amor proprio non dovrebbe MAI sposarle, è come dire che il mio avversario è migliore di me, sarebbe veramente patetico per nvidia.
Non è soltanto questo, visto che nVidia ha tirato fuori CUDA ed è rimasta soltanto lei ad adottarlo.
Ma il punto è che non puoi proporre uno standard di cui non rilasci le specifiche, mettendosi così in una posizione di netto vantaggio rispetto alla concorrenza. Oltre tutto lo standard è fatto su misura sulla tua architettura.
Capisci bene che con queste premesse tutti gli altri produttori non hanno alcun interesse a supportare Mantle.
CrapaDiLegno
20-04-2014, 16:18
Si ok ma non è che uno va 100 e l'altro va 5, che cavolo da come parli sembra paragoni un processore ad una lavatrice. Peggio di una tragedia oh...
Per assurdo anche la pasta del capitano è un aborto però dato è intel si scoperchia e via facendo finta di niente :D
[quote]
Stai facendo un minestrone da cui poi farai fatica ad uscire pure tu.
Allora questione consumi: si misura sempre il consumo totale del sistema mica per nulla: a contribuire al consumo del tuo PC non è solo la CPU ma anche le altre componenti, come il chipset.
Intel ha mostrato negli anni passati come una CPU a basso consumo come il primo Atom potesse diventare un sistema altamente inefficiente affiancato ad un chipset abominevole.
Quindi parlare della sola CPU non ha alcun senso: sela tua CPU consuma 50W ei lil chipset 150, il tuo sistema consuma 200W che è di più del mio ipotetico sistema che consuma 100 di CPU e 50 di chipset.
Questione test: il tuo test e i tuoi calcoli non valgono una cippa (detto terra terra). I numeri dei consumi dei vari componenti te li sei inventati e ripartiti come vuoi tu. L'unico numero vero è quello del tester che dice 330W.
Se io misurassi il consumo del mio PC non avrebbe alcun senso. Vedrei 200-300-400-1000W ma non saprei come rapportarlo al consumo della sola CPU+motherboard.
[QUOTE=Hulk9103;41001139]Portalo te allora un test fatto da te personalmente e confrontalo con quello che ti dico io, perchè a parlare siamo capaci tutti e portare le prove pochi.
Bisogna anche saperlo fare un test e capire come farlo. E non tutti sono capaci, come hai evidentemente dimostrato.
Anandtech ha fatto già il test che vuoi per te e per me: stessi componenti fondamentali (RAM/HDD/VGA/alimentatore/ventole e quisquilie varie) e ha provato un 3770K con una motherboard con chipset Intel e un 8350 con motherboard AMD della stessa classe.
Quello che si misura di differenza in questo caso è proprio il consumo che c'è della CPU e della motherboard. Il test dice 100W
Ho detto che il mio pc in full consuma 330w ok? togli 130 watt della vga, una 560 e rimangono 200 watt; non consideriamo le periferiche (1hdd e 1 lettore + ventole + wifi, ram) e contiamo la sabertooth 990fx, vuoi che non consuma almeno 50watt? da 330watt REALI misurati con strumenti arriviamo a 150watt circa che sono della cpu. Ho detto 30-40 watt in più, to vuoi fare in primo della classe facendo il pignolo? Facciamo che ne consuma 50 in più dai ai fini del calcolo che ho fatto prima cosa ti cambia? 5 euro all'anno? Ah bhe wow 10 e lode a te. Il mio discorso era tutto incentrato su quello.
E comunque sto parlando di cpu, non ho nominato le mobo. Certo che se vai sul sito di enermax per esempio e fai il calcolo di un pc con mobo high-end, una 7970 poi un 4770k e poi 8350 la differenza di alimentatori è di 30 watt, cioè consigliano un 400 watt per amd e un 370 per intel :fagiano:
Anche qua vorrei capire: se la differenza è di come dici te QUASI 100 watt tra mobo e cpu perchè consigliano un alimentatore praticamente tale e quale quello di intel ?? Caz ci sono 100 watt di differenza....
Non mi sembra difficile capire quello che ho scritto: la CPU Intel NON CONSUMA 110W in nessun caso a meno che la overclocchi! ma siamo in un altro ambito.
La CPU Intel è data per 90W con la GPU funzionante a palla. Siccome nel sistema AMD non c'è VGA integrata e quindi si mette una VGA sa sul sistema AMD che su quello Intel per parificare i consumi a parità di condizioni, la GPU integrata nel 4770K si disattiva. Senza GPU integrata funzionante non c'è verso di portare la CPU soltanto a consumare non i tuoi 110W ma nemmeno tanto quanto il TPD che è 90W.
Ora, inutile stare lì con il bilancino, ma la CPU fa, la GPU dice, il chipset sussurra.... i numeri sono quelli del tester collegato ai sistemi usati da Anandtech: 110W per il sistema Intel con 3770W (che come CPU va uguale a Haswell) oltre 200W per il sistema AMD con 8350.
100W di differenza. Non 35. Non 50. Avessero usato un 4770K con GPU disattivata probabilmente il sistema Intel avrebbe consumato di meno (pur finendo i bench qualche secondo prima rispetto al 3770K).
Quindi considera i 100W come la condizione di consumo migliore che puoi ottenere rispetto ad una CPU Intel a 22nm. Perché se uno ha bisogno di una CPU potente ma non se ne fa nulla di una VGA, montando un sistema Intel senza VGA va a risparmiare ancora qualche decina di W rispetto al sistema AMD.
Ripeto, non è difficile capire la cosa. Se la si vuole capire nel suo complesso. Se invece ci si intestardisce a dare numeri a caso per arrivare al solo consumo presunto di una CPU rispetto ad un altra (poi mi dici dove hai visto una Haswell consumare 110W) allora tanto vale fermarsi qui.
1) Esistono giochi fatti per 2 soli core, come fai a dire non abusiamo della parola ottimizzazione?? Al giorno d'oggi in ambito gaming esiste veramente pochissima ottimizzazione e non lo dico io ma è un dato di fatto e gli ultimi titoli come bf4 e crysis 3 dimostrano come un ottimizzazione possa accelerare e non di poco soprattutto amd. Quindi si l'ottimizzazione MANCA perchè per far soldi si taglia proprio quella ed escono giochi "semi-completi"...
Ma ottimizzazione per te significa lanciare decine di thread? A casa mia significa compiere un lavoro con l'uso minore possibile di energia.
Ti ho già detto, ma hai bellamente ignorato, il fatto che scomporre un problema in tanti sotto problemi indipendenti non è banale. Una volta che si è riusciti a farlo, fare in modo che la gestione dei vari sotto problemi sia efficiente non è ancora banale. E dipende moltissimo dal tipo di risorse a disposizione. Lanciare 10 thread su un sistema a 2 core è meno efficiente che lanciarli su un sistema a 8 core. Vero è che l'8 core impiegherà molto meno a finire il lavoro, ma è altrettanto vero che il dual core impiegherà di più che usare solo 2 thread.
Ora fai una rapida ricerca e vedi quanti 4/8 core sono stati venduti rispetto ai sistemi dual core. Hint: tutti i sistemi Intel i3 sono dual core.
Ne deriva che "ottimizzare" secondo i tuoi canoni vuol dire spendere un sacco di soldi e tempo per fare un algoritmi parallelizzato il più possibile che darà il meglio su una fetta piccolissima di utenti.
2) Cosa vuol dire sempre siano gli altri a ottimizzare per lei? Perchè intel ottimizza? Io penso proprio che intel fa un processore e poi le applicazioni vengono ottimizzate per usare o meno core/thread, se il software dice NO io il thread non lo uso intel può pregare in cinese ma tranquillo che il thread non lo usa, quindi veramente non capisco che colpa ne abbia amd cosi come intel. La colpa più lampante sta nelle mani dei programmatori (a volte spinti anche da intel e dai dati di vendita) a ottimizzare per il multi-thread piuttosto che per il multi-core ed è ovvio che intel va avanti e amd va indietro.[quote]
Sono gli altri a dover ottimizzare per AMD perché AMD ha scelto una strategia sbagliata di sviluppo delle propri CPU: quella di aumentare il numero di core per chiudere il gap rispetto alla capacità single thread di Intel.
Non tutti i problemi hanno una soluzione parallelizzabile.
E quand'anche ci fosse, implementarla costa.
Intel ha deciso di aumentare le capacità ST delle proprie CPU in modo che tutti gli algoritmi posano girare in maniera efficiente. AMD ha detto: non siamo capaci, raddoppiamo i core (con una serie di limiti) e lasciamo che siano gli sviluppatori a fare algoritmi complessi per le nostre CPU.
[QUOTE=Hulk9103;41001139]Nonostante questo ha creato Mantle appunto per non lasciare lavorare troppo gli altri, sia mai eh...
Ehheheh... proprio l'esempio giusto di ottimizzazione:
1. funziona solo per la propria architettura (e ci si domanda come farà quando dovrà cambiarla)
2. avrà pure scritto le API, ma l'implementazione delle stesse è di DICE (che probabilmente ne ha pure pensata una parte di quelle API).
Inoltre come leggo anche in giro e gia sapevo il tdp non è il consumo della cpu ma "Il Thermal Design Power (TDP, chiamato anche Thermal Design Point) rappresenta un'indicazione del calore (energia) dissipato da un processore, che il sistema di raffreddamento dovrà smaltire per mantenere la temperatura del processore stesso entro una soglia limite. La sua unità di misura è il watt."
E' la potenza massima che il sistema deve riuscire a dissipare in maniera continua. Ne deriva, viceversa, che i componenti che hanno quel TDP dovranno rientrare in quel consumo nel breve periodo onde evitare di bruciare. Quindi ti puoi permettere picchi fuori dal TDP brevi.
Per esperienza personale il TDP di Intel è sempre notevolmente superiore al consumo medio delle sue CPU.
Non sempre il paragone con le auto/motori è corretto e in questo caso secondo me non c'entra una fava perchè qui non si parla di comodità: avere amd o intel mi permette di giocare in maniere eccellente in ogni caso seppur con uno un po meglio ma la differenza non è di certo come il giorno e la notte; fare 1000km con una jeep o un audi no perchè probabile con la prima arriverei tutto rotto a destinazione.
In questo caso il paragone è più che pertinente: hai un sistema che consuma di più (e non poco) che è quanto il paragone tra una berlina e una Jeep e hai anche un fattore rumorosità superiore, che magari a te non interessa, ma non è tanto differente tra il comfort di una berlina e della Jeep.
Se mi dici che la tua Jeep ha potenza sufficiente per andare un giro a una certa velocità non posso che darti ragione. Però non è vero che sia la scelta consigliata per fare viaggi lunghi e comodi (cioè per tutti coloro che usano il PC diverse ore al giorno).
Ancora, il prezzo delle CPU FX di AMD indica quanto siano (poco) richieste per tutti questi fattori che tu ritieni secondari. Oltre a te e me, un'azienda che ha bisogno di PC potenti da usare tutto il giorno non installerebbe mai degli FX: più rumore, più consumi... e per cosa?
Rimane abbastanza chiaro che "l'effetto console" ad AMD non basta. Neanche con i massimi di vendita di queste riesce a pareggiare i conti. Mi piacerebbe sapere dove sono finiti tutti quelli che si erano spinti a fantasticare sulle cifre che AMD avrebbe guadagnato. I bla bla e le fantasie stanno a zero. Quello che conta sono i numeri.. e qui sono ancora una volta in rosso.
va bene essere inutilmente fanboy intel, ma provare a dimostrare con tutte le forze il contrario di quello che afferma la notizia non è molto geniale, il fatturato è aumentato considerevolmente sull'anno scorso nonostante la crisi del mondo pc, il resto è noia
Littlesnitch
21-04-2014, 08:38
intendevi dire che per dissipare 110W devi scoperchiarlo altrimenti va prima in protezione? ho provato ma regge, siamo al limite ma regge
Ecco così va già meglio! Per farlo consumare 110W lo devi portare in OC molto in alto e a causa della pasta del capitano che usano o devi essere particolarmente fortunato oppure lo devi scoperchiare e mettere a liquido per raggiungere quelle freq. Insomma ti stavo dando ragione e mi hai dato dello scemo :(
marchigiano
21-04-2014, 20:03
Ecco così va già meglio! Per farlo consumare 110W lo devi portare in OC molto in alto e a causa della pasta del capitano che usano o devi essere particolarmente fortunato oppure lo devi scoperchiare e mettere a liquido per raggiungere quelle freq. Insomma ti stavo dando ragione e mi hai dato dello scemo :(
ti chiedo scusa ma da come avevi scritto non avevo capito, o sei contorto te o sono scemo io :sofico:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.