Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Google Pixel 10 è compatto e ha uno zoom 5x a 899€: basta per essere un best-buy?
Google Pixel 10 è compatto e ha uno zoom 5x a 899€: basta per essere un best-buy?
Google Pixel 10 è uno smartphone che unisce una fotocamera molto più versatile rispetto al passato grazie allo zoom ottico 5x, il supporto magnetico Pixelsnap e il nuovo chip Tensor G5. Il dispositivo porta Android 16 e funzionalità AI avanzate come Camera Coach, mantenendo il design caratteristico della serie Pixel con miglioramenti nelle prestazioni e nell'autonomia. In Italia, però, mancano diverse feature peculiari basate sull'AI.
Prova GeForce NOW upgrade Blackwell: il cloud gaming cambia per sempre
Prova GeForce NOW upgrade Blackwell: il cloud gaming cambia per sempre
L'abbonamento Ultimate di GeForce NOW ora comprende la nuova architettura Blackwell RTX con GPU RTX 5080 che garantisce prestazioni tre volte superiori alla precedente generazione. Non si tratta solo di velocità, ma di un'esperienza di gioco migliorata con nuove tecnologie di streaming e un catalogo giochi raddoppiato grazie alla funzione Install-to-Play
Ecovacs Deebot X11 Omnicyclone: niente più sacchetto per lo sporco
Ecovacs Deebot X11 Omnicyclone: niente più sacchetto per lo sporco
Deebot X11 Omnicyclone implementa tutte le ultime tecnologie Ecovacs per l'aspirazione dei pavimenti di casa e il loro lavaggio, con una novità: nella base di ricarica non c'è più il sacchetto di raccolta dello sporco, sostituito da un aspirapolvere ciclonico che accumula tutto in un contenitore rigido
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 06-06-2017, 08:21   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75173
Link alla notizia: http://www.hwupgrade.it/news/cpu/da-...ega_69136.html

L'annuncio di Apple delle nuove soluzioni iMac Pro, assieme ad una immagine del die della GPU fornita da AMD, permettono di ricavare ulteriori informazioni sulla prossima generazione di GPU AMD top di gamma

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 08:44   #2
nick091
Senior Member
 
L'Avatar di nick091
 
Iscritto dal: Jan 2006
Messaggi: 1195
Sino a quando non si vedranno i bench questi discorsi sono aria fritta
nick091 è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 09:07   #3
goku4liv
Bannato
 
Iscritto dal: Mar 2015
Messaggi: 198
ormai amd nel settore gpu è indietro anni luce rispetto a nvidia
goku4liv è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 09:52   #4
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3708
Diciamo che è in ritardo. Grande ritardo.
Se Vega sarà una buona architettura, come da presupposti, allora non è detto che un cambio di strategia con Navi possa riportare AMD in carreggiata.

Ad AMD serve migliorare notevolmente l'efficienza computazionale della sua architettura in modo che possa fare chip più piccoli e meno energivori. A quel punto potrà fare concorrenza per davvero, invece che usare Golia contro di Davide di nvidia e sperare che siano i programmatori ad usare tecniche astruse per migliorare leggermente la sua di efficienza.
Se mantengono le promesse con Vega dove sembra che le frequenze si siano alzate con consumi sotto controllo significa che sono sulla buona strada (HBM a parte che è stata una scommessa che si è rivelata perdente per ben 2 generazioni, quindi per la prossima e terza volta si spera che abbiano capito).

CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 10:10   #5
giovanbattista
Senior Member
 
L'Avatar di giovanbattista
 
Iscritto dal: Nov 2002
Messaggi: 5152
AMD stated that the die-shot appeared in one of its marketing slides, but may not be real.
giovanbattista è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 10:15   #6
pingalep
Senior Member
 
Iscritto dal: Dec 2001
Città: Bologna
Messaggi: 3271
scusate ma io dai bench di prestazione per bitcoin opencl e simila vedo chip amd con molti più transistor e capacità di calcolo molto più elevate a parità di costo.
i chip nvidia 9*0 che guardavo per un possibile acquisto costavano di più consumavano meno ma avevano anche molti meno transistor e capacità di calcolo pura. nvidia si è fatta bene i conti e ha deciso che andava bene così perchè i giochi non sfruttano molta potenza e molte delle possibilità di accelerazione hardware, ma io ho scelto amd proprio perchè con opencl lavora molto meglio. per lo meno sotto i 200 euro
pingalep è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 10:27   #7
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ad AMD serve migliorare notevolmente l'efficienza computazionale della sua architettura in modo che possa fare chip più piccoli e meno energivori.
non è un problema, nel 2017.
quando nvidia deciderà di usare anche lei AC/ACE (sotto forma dei suoi tensor core, probabilmente), il die delle sue soluzioni crescerà del 30% e parallelamente anche il consumo, sempre a parità di PP.
finchè non scenderanno a 10nm credo che non avremmo modo di vedere Volta sulle GTX, perchè devono appunto compensare la maggiore complessità con la riduzione garantita dal PP.
il grande vantaggio lo otterrà in DX12, dove non sarà piu' limitata dalle CPU.

una Ti a basse risoluzioni è piu' strozzata di un pollo a cui tirano il collo; solo in un paio di giochi, realmente pesanti graficamente, mantiene linearità sulle risoluzioni superiori.
a meno chè Intel non faccia CPU da 7Ghz la strada è solo quella, e quella strada significa aumentare la complessità e quindi la dimensione ed i consumi.

quindi, come al solito, AMD non deve imparare nulla, ma magari insegna.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 12:36   #8
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3708
Quote:
Originariamente inviato da lucusta Guarda i messaggi
non è un problema, nel 2017.
quando nvidia deciderà di usare anche lei AC/ACE (sotto forma dei suoi tensor core, probabilmente), il die delle sue soluzioni crescerà del 30% e parallelamente anche il consumo, sempre a parità di PP.
finchè non scenderanno a 10nm credo che non avremmo modo di vedere Volta sulle GTX, perchè devono appunto compensare la maggiore complessità con la riduzione garantita dal PP.
il grande vantaggio lo otterrà in DX12, dove non sarà piu' limitata dalle CPU.

una Ti a basse risoluzioni è piu' strozzata di un pollo a cui tirano il collo; solo in un paio di giochi, realmente pesanti graficamente, mantiene linearità sulle risoluzioni superiori.
a meno chè Intel non faccia CPU da 7Ghz la strada è solo quella, e quella strada significa aumentare la complessità e quindi la dimensione ed i consumi.

quindi, come al solito, AMD non deve imparare nulla, ma magari insegna.
Eh? Ma che stai dicendo?
ACE con i tensor core? Ma lo sai almeno che cosa è l'Async computing e a che cosa serve? Mi sa di no.
E soprattutto, è evidente che non sai cosa siano i tensor core e dove siano messi.
Tutto il resto del ragionamento purtroppo fa acqua partendo da questa inutile affermazione che hai fatto.
In primis il tanto elogiato Async Computing non è altro che una tecnica per cercare di aumentare l'efficienza computazionale. Guardala come vuoi, ma non fa nulla che non si possa fare in altra maniera con architettura diversa che è già efficiente da parte sua. Il guadagno che dà, secondo quanto vediamo anche dagli esercizi di stile che ne abusano abbondantemente è di qualche punto percentuale. Diciamo il 20%?
La complessità che è necessaria per avere questo "pazzesco" aumento di capacità computazionale è più elevata del mettere il 20% di ALU in più o di aumentare del 20% la frequenza. 2 cose che non richiedono ai programmatori di scrivere motori ad hoc per questa o quella configurazione che supporta questa o quella implementazione dell'Async (che non è uguale nemmeno sullo stesso HW di AMD).
Se vogliamo metterla in questione di ottimizzazione per questa o per quella architettura, allora non lamentiamoci se poi nvidia fa di tutto perché i motori grafici girino meglio sul suo di HW. Visto che a quanto pare è quello che voi fanboy vorreste che gli sviluppatori facessero per AMD (e di fatti qualcuno fa pagato da AMD stessa).

Di che Volta parli? Non so se te ne sei accorto, ma ad nvidia non serve un Volta per far fronte ad AMD che con suoi 14nm fa comunque chip più grandi e più energivori. Se metterà sul mercato Volta consumer è per superare la sua stessa offerta, non quella della concorrenza che è già indietro, e quindi non le serve davvero fare molto per lasciarla là dove è. Vega con l'ASync andrà il 20% in più.. aspett... nuova versione del GP104, il GV104, con il 20% di potenza computazionale in più, meno del 20% di aumento di dimensione del die, consumi ridotti (basta anche quello per migliorare) eh, o cacchio, Vega con la HBM2 e 550mm^2 è ancora dietro...
Vega va quanto il GP102? A beh.. aspettt.. GV102, 20% di ALU in più.. a no, forse basta solo il 20% di frequenza in più (tanto consumo meno comunque) e l'architettura nuova... e voilà... 12 mesi di ulteriore controllo del mercato sia professionale che consumer...
Ah, ma vedrete con Navi, i nuovi driver, le DX12 che saranno sempre più sfruttate (dove, chi? e sopratutto QUANDO??) le cose saranno diverse.
L'ho sentito con Mantle e c'era GCN1.1. Poi GCN1.2 (mittico Fiji...). Poi sono arrivate le DX12 e Polaris, che sarà la nuova architettura che schiaccerà il potere di nvidia (200mm^2 di chippetto tradizionale lo hanno affogato in meno 2 settimane.. ah, ma l'async... guarda l'async che le permette di andare uguale con 1TFLOPS di potenza in più! Ah, che miracolo l'Async.... o che m3rda l'efficienza dell'architettura AMD quando non è aiutata dai programmatori con soluzioni ottimizzate per lei). E ora è la volta di Vega (che è un super monster chip... bello vincere facile con 500mm^2, HBM2, 12 e rotti TFLOPS di potenza e dire che sarà l'Async quello che fa la differenza, vero?).
Dai su. Bello sognare ma guardiamo i fatti e la realtà.
Vega non sarà un problema. Per quanto è un chip che ha un costo fuori budget per il mercato consumer e venderlo lì per AMD vuol dire perdere soldi. Magari buono per i bench e i fanboy che potranno gridare la miracolo e al "te lo avevo detto che la Ferrari avrebbe battuto la Panda!". Quindi ce ne saranno davvero poche di Vega consumer. Che se necessario saranno asfaltate dal prossimo chippetto con GDDR6 di nvidia. O magari basterà ancora solo la GDDR5X.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 13:56   #9
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4370
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ma lo sai almeno che cosa è l'Async computing e a che cosa serve? Mi sa di no.
Non è il solo, me lo spiegheresti?

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
In primis il tanto elogiato Async Computing non è altro che una tecnica per cercare di aumentare l'efficienza computazionale.
esattamente, ma ancora mi manca cosa faccia....

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Il guadagno che dà, secondo quanto vediamo anche dagli esercizi di stile che ne abusano abbondantemente è di qualche punto percentuale. Diciamo il 20%?
in che senso abusare?


Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
La complessità che è necessaria per avere questo "pazzesco" aumento di capacità computazionale è più elevata del mettere il 20% di ALU in più o di aumentare del 20% la frequenza.
è noto che il punto debole di GCN sono gli shader....e che le latenze si riducano aumentando il numero degli stadi...

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
2 cose che non richiedono ai programmatori di scrivere motori ad hoc per questa o quella configurazione che supporta questa o quella implementazione dell'Async (che non è uguale nemmeno sullo stesso HW di AMD).
quindi l'Async usa codice particolare per singola GPU mentre lo scheduler della GPU è li solo come elemento di contorno. Buono a sapersi....

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Dai su. Bello sognare ma guardiamo i fatti e la realtà..
e guardiamola sta realtà:

https://linustechtips.com/main/topic...green500-list/

-amds hawaii is officially the most efficient gpgpu in the world

Ultima modifica di tuttodigitale : 06-06-2017 alle 14:13.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 15:05   #10
nick091
Senior Member
 
L'Avatar di nick091
 
Iscritto dal: Jan 2006
Messaggi: 1195
Quote:
Originariamente inviato da goku4liv Guarda i messaggi
ormai amd nel settore gpu è indietro anni luce rispetto a nvidia
eh? guarda che la rx 570 è il best buy del mercato mainstream e la rx 580 da' punti alla gtx 1060 tanto che si sono affrettati a far uscire la versione con la banda di memoria a 9Gbps per recuperare qualcosa
nick091 è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 15:06   #11
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3708
Che ti stai inventado anche tu?
Ma qui è la fiera del fanboy clueless o cosa?

Quello là viene a parlare di Tensor Core x l'Async computing, tu che parli di most efficient computing e fai finta di non sapere cosa sia l'Async quando invece non lo sai davvero.

A parte che o controllato e al solito hai postato un link fuffa, dato che sul sito del top Green 500 il primo (e unico) server con AMD installato è in 32 posizione dietro a una decina di altri server che montano nvidia K20/40/80 (tutti GK110 based) e ha efficienza di meno di 3GFLOPS per W.

L'Async è quello che ho detto. AMD l'ha implementato a modo suo, e lo scheduler è solo una parte della funzionalità (per inciso, se non lo sai, pure nvidia ha lo scheduler nella GPU per quello che può servire all'Async Computing).
Non c'è scritto da nessuna parte né che è necessario (e già, non è una feature considerata necessaria per le DX12) né che debba essere fatta come l'ha fatta AMD. E sì, serve il supporto esplicito dei programmatori per usarle l'Async, non è una funzionalità trasparente e soprattutto richiede che sia "tunata" a seconda dell'HW su cui si svolge il calcolo, dato che sul mercato ci sono GPU con 2, 4 e 8 ACE con 2, 3, 4 e 8GB di RAM, che a quanto sembra sono utili al suo uso dato che le schede con meno memoria sono anche quelle che beneficiano meno della cosa.
E sì, ci sono engine che ne abusano, nel senso che ne fanno un uso massiccio e sono, guarda caso, quelli che fino a ieri erano usati per mostrare i grandi vantaggi di AMD (sto parlando di AoS) salvo poi metterlo in secondo piano quando si è visto che con un paio di ottimizzazioni nei driver nvidia raggiunge migliori prestazioni senza l'Async. E in DX11. E ovviamente non si fa mai riferimento ai motiri DX12 in cui AMD non trae benefici.. ah, quelli sono scritti con i piedi perché non sono ottimizzati esplicitamente come i motori di DICE.

I fatti, che non sono le sciocchezze che tu e quell'altro dite, sono quelli che mostrano che l'async è un aiuto marginale a quello che serve per davvero ad AMD per fare la differenza. Differenza che nonostante tutti i bla bla che avete fatto dal lancio di Mantle a oggi non si è proprio vista dato che alla fine nvidia con il chippetto da 200mm^2 tiene a bada più che degnamente il chip da 230mm^2 di AMD che deve essere cloccato oltre i 1400Mhz a consumare 240W per fare uguale o giusto poco meglio.

Se siete così fanboy da fermarvi a guardare solo ed esclusivamente le barrette colorate ed estrarre bandiere e vuvuzela quando la barretta rossa supera quella verde, be', siete davvero messi male. Quando capirete qualcosa e farete il conto di quello che sono le risorse usate dalle GPU AMD vs quelle usate dalle GPU nvidia, vi accorgerete che ad nvidia non serve fare rivoluzioni o costruire GPU immense o mettere ACE del cacchio per rimanere alla pari con GPU che costano di più: le basta colmare quel piccolo gap che AMD ottiene solo ed esclusivamente (e questo per ora è assodato) quando esegue motori che sono ottimizzati per la sua specifica architettura (e neanche su tutta la serie, visto che le GPU più scrause o quelle più vecchie non traggono gli stessi benefici se il gioco è ottimizzato per le ultime GPU con 8 ACE).
Aumentare le ALU o la frequenza dà invece sempre e comunque vantaggi, anche se i programmatori non sfruttano questa o quella libreria o si preoccupano di spendere ulteriore tempo a fare codice in iperthreading per aiutare l'inefficienza delle GPU AMD.
D'altronde è AMD che sta cercando si fare salti mortali con l'HBM in cerca di una soluzione che le dia finalmente un minimo vantaggio, dato che altrimenti non c'è alcuna speranza. Ci ha provato con Fiji, fallendo miseramente, ci sta riprovando con Vega che forse (ma forse) ha qualche speranza. Sempre che come ho detto, AMD sia riuscita ad aumentare l'efficienza computazionale al di là dell'uso dell'Async, perché altrimenti, tranne che nei soliti 4 giochi (che usano lo stesso motore ottimizzato), rimarrà sempre e comunque indietro rispetto al chip più economico sviluppato da nvidia.

Se non avete capito questo, mi spiace. Potete continuare a sventolare bandiere rosse con le scritte rivoluzionarie di AMD. Vedrete che prima o poi qualcosa di buono per AMD avverrà. Nel frattempo io mi sono stancato e ho comprato una 1070 che di promesse e di link a cose che non hanno alcun valore ormai ne ho collezionati a sufficienza.

CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 15:12   #12
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3708
Quote:
eh? guarda che la rx 570 è il best buy del mercato mainstream e la rx 580 da' punti alla gtx 1060 tanto che si sono affrettati a far uscire la versione con la banda di memoria a 9Gbps per recuperare qualcosa
Ma ancora?? Ma bastaaaaa!!!!!
ma come puoi dire che è il best buy una scheda che consuma coma la 1070 per andare come una 0160 3GB?
Come fai a dire che la 580 è un concorrente della 1060 se usa una GPU più grande e consuma fino al doppio?? (240W vs 120)
E va uguale o poco meglio solo nei giochi che sonio ottimizzati per AMD? Altrimenti rimane ancora indietro? Ma che concorrenza credi che sia questa?

Ma che cosa stai confrontando? I prezzi? ma sì, se AMD scende ancora un po' fra un po' te le fa trovare nelle uova di Pasqua in regalo. Peccato solo 2 cose: che non ne vende comunque (il suo market share è sceso) e che alla fine del trimestre ha un buco di bilancio. Però, dai, forse se le regala diventano il best buy assoluto di tutti i tempi!
Ma siamo su un forum tecnico o di bambini dell'asilo che guardano solo Trovaprezzi prima di commentare?

Imparate a guardare i fatti nel loro complesso: i prezzi di nvidia non scendono, il che vuol dire che AMD non sta facendo il suo lavoro. PUNTO.

CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 15:38   #13
nick091
Senior Member
 
L'Avatar di nick091
 
Iscritto dal: Jan 2006
Messaggi: 1195
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ma ancora?? Ma bastaaaaa!!!!!
ma come puoi dire che è il best buy una scheda che consuma coma la 1070 per andare come una 0160 3GB?
Come fai a dire che la 580 è un concorrente della 1060 se usa una GPU più grande e consuma fino al doppio?? (240W vs 120)
E va uguale o poco meglio solo nei giochi che sonio ottimizzati per AMD? Altrimenti rimane ancora indietro? Ma che concorrenza credi che sia questa?

Ma che cosa stai confrontando? I prezzi? ma sì, se AMD scende ancora un po' fra un po' te le fa trovare nelle uova di Pasqua in regalo. Peccato solo 2 cose: che non ne vende comunque (il suo market share è sceso) e che alla fine del trimestre ha un buco di bilancio. Però, dai, forse se le regala diventano il best buy assoluto di tutti i tempi!
Ma siamo su un forum tecnico o di bambini dell'asilo che guardano solo Trovaprezzi prima di commentare?

Imparate a guardare i fatti nel loro complesso: i prezzi di nvidia non scendono, il che vuol dire che AMD non sta facendo il suo lavoro. PUNTO.
Per significato della parola "best buy" si riferisce al prezzo, e per il prezzo trovato su trovaprezzi e negli shop la rx 570 è il best buy https://goo.gl/bIQkL1
Per quanto riguarda i confronti tra la 1060 e la 580 ne ho visti a diecine e le due schede sono nel complesso vicinissime ma, per quanto preferisca la gtx per i motivi energetici di cui parli, ho dovuto ammettere che le performance pendono a favore della 580, se con le 9gbps hanno spostato di nuovo l'ago della bilancia a loro favore non lo so
last but not least: quello che devo imparare sono cazzi miei e non sei certo tu il professore che me lo spiega
nick091 è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 15:48   #14
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14736
@CrapaDiLegno
Accidenti, proprio non riesci a rispondere senza arroganza. Dici che gli altri sono fanboy, ma dalle tue parole trasuda una palese partigianeria. Eh si, le parole sono importanti, e dicono tanto.

Ora, tralasciando i post precedenti (non ho tempo di rispondere, alcune cose sono corrette, altre non lo sono, e i toni sono sempre sbagliati per una discussione civile), voglio scrivere due appunti su quanto hai scritto.

Quote:
Originariamente inviato da CrapaDiLegno;
Come fai a dire che la 580 è un concorrente della 1060 se usa una GPU più grande e consuma fino al doppio?? (240W vs 120)
Immagino che a lui i consumi interessino poco (si, trovo anche io come te che con la 580 abbiano esagerato nel tirarle il collo), e la GPU è solo marginalmente più grande (e non per questo più costosa per AMD).
Come già discusso in passato, a mio parere Polaris costa ad AMD meno di quanto GP 106 costa ad Nvidia.

Quote:
Originariamente inviato da CrapaDiLegno;
E va uguale o poco meglio solo nei giochi che sonio ottimizzati per AMD? Altrimenti rimane ancora indietro? Ma che concorrenza credi che sia questa?
Ma che discorso è? Allora eliminiamo dall'equazione anche i giochi ottimizzati Nvidia e torniamo punto e accapo.

Quote:
Originariamente inviato da CrapaDiLegno;
Ma che cosa stai confrontando? I prezzi? ma sì, se AMD scende ancora un po' fra un po' te le fa trovare nelle uova di Pasqua in regalo. Peccato solo 2 cose: che non ne vende comunque (il suo market share è sceso) e che alla fine del trimestre ha un buco di bilancio. Però, dai, forse se le regala diventano il best buy assoluto di tutti i tempi!
Qui hai scritto una marea di inesattezze.
Prima cosa, i prezzi di Polaris sono aumentati e non calati.
Secondo il market share non aumenta perchè le schede non si trovano: a quanto pare i miner ne stanno facendo incetta, le schede spariscono dal mercato e i prezzi rimangono alti.
Quindi il dipinto che ti sei fatto è piuttosto differente dalla realtà.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 16:46   #15
nick091
Senior Member
 
L'Avatar di nick091
 
Iscritto dal: Jan 2006
Messaggi: 1195
Quote:
Originariamente inviato da calabar Guarda i messaggi

Immagino che a lui i consumi interessino poco (si, trovo anche io come te che con la 580 abbiano esagerato nel tirarle il collo), e la GPU è solo marginalmente più grande (e non per questo più costosa per AMD).
Come già discusso in passato, a mio parere Polaris costa ad AMD meno di quanto GP 106 costa ad Nvidia.
A me i consumi interessa, eccome, ma quando la scheda viene utilizzata il problema del consumo è marginale rispetto alle performance
nick091 è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 16:49   #16
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3708
Quote:
Qui hai scritto una marea di inesattezze.
Prima cosa, i prezzi di Polaris sono aumentati e non calati.
Secondo il market share non aumenta perchè le schede non si trovano: a quanto pare i miner ne stanno facendo incetta, le schede spariscono dal mercato e i prezzi rimangono alti.
Quindi il dipinto che ti sei fatto è piuttosto differente dalla realtà.
Ahahah.. sarei io quello che è fanboy?
Ma vi rendete conto che state cercando giustificazioni che non hanno riscontro con i fatti?
Lasciamo stare la questione best buy che per ognuno il best è sempre personale e il prezzo non è sempre la sola discriminante (e di fatti vista la quantità venduta da AMD sembra essere proprio così), ma che stai a dì riguardo alle schede per minare?
Che altro vi state inventando come ulteriore giustificazione al fatto che AMD non vende?
In primo luogo vorrei avere le statistiche che mi dico quante sono queste fantomatiche schede che vanno ai miner.
Poi, che cosa c'entra il fatto che vano ad un miner o ad un videogiocatore? Una scheda venduta è registrata come una scheda venduta e fa market share. Che cosa vuol dire "spariscono dal mercato"? I miner vanno a rubarli dai magazzini di AMD prima che le spedisca ai rivenditori? Con questo intendi "spariscono dal mercato"? Ti rendi conto dell'assurdità che hai detto? Ed è una assurdità che suggerita dalla volontà di trovare una giustificazione per qualc0sa che non va nelle vendite di AMD.
I prezzi delle Polaris sono aumentate? E quest cosa indica? Maggiore richiesta o minore offerta? Perché io vedo che i prezzi di nvidia non si sono mossi serie 4xx o 5xx che sia, e a quanto pare il mercato si è ristretto.. quindi parliamo di fatti e non di pugnette come siete doliti fare (sarò anche arrogante, ma ad un certo punto quando si leggono queste caxxate immense a uno scappa pure la pazienza).
Il mercato si è ristretto. Che vuol dire che il numero assolto di schede vendute è diminuito. nvidia non ha toccato i prezzi nella fascia medio bassa, li ha cambiati nella alta dove non ha concorrenza. Segnale che effettivamente il mercato è in contrazione nonostante la mancanza assoluta di concorrenza in quella fascia.
Nella fascia medio bassa, nonostante la concorrenza, non ha toccato nulla. AMD ha aumentato i prezzi (quasi a indicare una maggiore richiesta). Se AMD avesse venduto di più nvidia probabilmente avrebbe venduto molto meno (ricordo che il mercato è in contrazione, quindi se uno aumenta in questo caso l'altro ha una fortissima perdita nvidia non ha risposto a quello che sarebbe dovuto essere una diminuzione forte delle vendite. L'ultima analisi indica che il market share di AMD è diminuito invece di aumentare.
Ora congiungi i puntini e tieni conto che le schede che sono vendute ai miner sono schede che sono tracciate e fanno parte dei conteggi delle schede vendute. A casa mia 2+2 non fa quello che dite voi. Ma siete liberi di credere lo stesso quello che volete. Non è mia intenzione convincervi di niente. E caro nick091, se tu non vuoi imparare nulla sono caxxi tuoi, ma non venire a parlare di patate mentre stiamo discutendo di cioccolato.

Rimane vero quello che ho detto (nonostante le vostre patetiche giustificazioni): GCN ha una efficienza computazionale inferiore all'architettura nvidia e deve compensare con più silicio (che solo calabar ritiene costare meno, per ragioni assolutamente irrazionali, ma tant'è, la questione è che rimangono più grandi e necessitano di più risorse, le architetture non si cambiano in un baleno e non è detto che con i prossimi PP la questione del costo inferiore, se mai c'è, rimarrà) e più corrente consumata. E questo porta AMD ad non essere competitiva, tanto che sono ormai 5 anni che nvidia fa quel che vuole con i prezzi (che sono l'indicatore ultimo di quanta concorrenza c'è... guarda caso la scheda "best buy" per prezzo è quella della rivale che deve svendere tutto pur di vendere qualcosa e questo comunque non basta a modificare le strategia di nvidia che prospera in una marea di soldi e margini altissimi).
Ora, ripeto e ribadisco, la questione concorrenza cambierà solo se AMD è riuscita a cambiare l'efficienza di Vega, perché 13TFLOPS di Vega, visto quello che è l'efficienza delle altre incarnazioni di GCN, non sono sufficienti per battere gli 11TFLOPS del GP102.
Quando sarà rilasciato Vega vedremo se ho ragione o meno. Vedremo se i prezzi cambieranno o se nvidia rimarrà con i suoi prezzi fissati già 2 mesi fa che già pongono Vega con l'HBM a margine zero per AMD se questa non va oltre il GP102.
E vedremo quante altre giustificazioni troverete. Ma già so quale saranno le prime parole ai primi risultati dei test: aspettate i driver maturi, perché non avete fatto i test con gli ultimi driver, i giochi sono vecchi, bisogna prendere tutta la suite di giochi basati sui motori di DICE per arrivare ad un malinconico solito finale "aspettate Navi" ne vedrete delle belle (magari passando per " e la overcloccate per consumare 400W forse arriva a superare la barretta").
Però se andrà di più, del fatto che la soluzione a tutti i mali è il miglioramento della efficienza computazionale "al di là dell'Aync" non lo dirà nessuno. Ma rimarrà comunque il ricordo che GCN è stata una architettura non concorrenziale.


CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 17:10   #17
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3708
Quote:
Originariamente inviato da nick091 Guarda i messaggi
A me i consumi interessa, eccome, ma quando la scheda viene utilizzata il problema del consumo è marginale rispetto alle performance
Ma di quali super performance che giustificano il doppio dei consumi stai parlando?
Di queste? E il confronto è con una FE...

http://www.anandtech.com/show/11278/...x-570-review/7
http://www.anandtech.com/show/11278/...x-570-review/8
http://www.anandtech.com/show/11278/...x-570-review/9
http://www.anandtech.com/show/11278/...-570-review/10
http://www.anandtech.com/show/11278/...-570-review/11
http://www.anandtech.com/show/11278/...-570-review/12
http://www.anandtech.com/show/11278/...-570-review/13
tenendo conto di questi
http://www.anandtech.com/show/11278/...-570-review/16

O tirando le somme:
https://www.techpowerup.com/reviews/...o_Plus/30.html
https://www.techpowerup.com/reviews/...o_Plus/28.html

Sarebbe questo il "miracolo" di AMD con Polaris10?
Sarebbero queste le performance per cui dici che nvidia ha rilasciato velocemente la versione con memoria a 9Gbps (che in realtà è stata annunciata prima della serie 500, ma vabbè, secondo voi è sempre nvidia quella in affanno).
Sono queste le performance che l'Async concede di cui nvidia deve preoccuparsi? (e secondo lucusta per il cui motivo ha realizzato i tensor core?)
Basta una custom...

Sarà. Ai fanatici di qualunque specie di certo i fatti non sono cosa importante. Meglio così però. Senza di voi la concorrenza non esisterebbe più già da un sacco di tempo. Per quel poco che vale... sempre meglio di zero assoluto.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 17:16   #18
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14736
@CrapaDiLegno
Non è che se uno dice una "fanboiata" questo ti autorizza a rispondere ancora più da fanboy. Se hai argomenti rispondi con argomenti e non accendendo i toni: quello lo fanno i fanboy.

Ad ogni modo: come pretendi che i prezzi delle nvidia calano se non calano neppure quelli delle schede AMD? A scanso di equivoci, parlo ovviamente della fascia in cui si trova Polaris, dato che nelle fasce superiori al momento non c'è concorrenza.
Evidentemente nel caso delle schede AMD c'è una domanda superiore all'offerta. Che questo sia dovuto ad una produzione scarsa o alle Polaris che vanno a ruba (l'acquisto in massa da parte dei miner è già avvenuto in passato con le schede AMD e proprio di recente se ne parlava perchè a causa dell'attuale valore delle criptovalute potrebbe essere esattamente quello che sta succedendo ora) al momento non è dato saperlo con precisione. Forse entrambe le cose.

Il punto è che se si ha difficoltà a trovare le schede Polaris (se non a prezzo elevato) sicuramente il problema del market share non è dovuto al fatto che la gente non vuole queste schede.
Il punto è capire di quale "market share" stiamo parlando. Se basato sui numeri di vendita ufficiali sicuramente hai ragione, che li compri un miner o un videogiocatore poco cambia. Se basati sulle piattaforme di gioco (come le statistiche di steam) naturalmente le cose cambiano.
Ad ogni modo tieni conto che arrivare in ritardo con i prodotti e avere una lineup non completa sicuramente non aiuta AMD a recuperare market share nel suo complesso, anche se Polaris 10 andasse bene da sola non basterebbe a ritirare su l'asticella per AMD.
Non parliamo poi dei settori dove AMD latita, come quello professionale (ma bisogna vedere in questo caso se tali settori sono inclusi nelle statistiche).

Insomma, evita di dire che qui la gente cerca di giustificare in tutti i modi AMD perchè fanboy: qui si sta discutendo cercando di interpretare quello che sta accadendo.
Mi spiace che questo vada contro la tua visione in cui le schede AMD fanno schifo, non le vuole nessuno e AMD le svende, ma proprio per questo sei tu che dimostri di essere di parte.

PS: le ragioni per cui ritengo che Polaris 10 possa costare meno di GP106 in produzione sono perfettamente razionali e verificabili, mi dispiace vedere che come al solito da questo orecchio tu non voglia sentire.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 18:03   #19
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4370
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Quello là viene a parlare di Tensor Core x l'Async computing, tu che parli di most efficient computing e fai finta di non sapere cosa sia l'Async quando invece non lo sai davvero.
ho detto di non saperlo, perchè non me lo spieghi..

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
A parte che o controllato e al solito hai postato un link fuffa, dato che sul sito del top Green 500 il primo (e unico) server con AMD installato è in 32 posizione dietro a una decina di altri server che montano nvidia K20/40/80 (tutti GK110 based) e ha efficienza di meno di 3GFLOPS per W.
link fuffa...
GSI Helmholtz Center, quarto computer al mondo per efficienza (lista Giugno 2016) con 5272.1 MFLOPs/watt, nessun supercomputer con soluzioni nvidia ha fatto meglio (eccetto GP110 nei mesi successivi)
a cosa ti riferisci?
https://www.top500.org/green500/list/2016/06/

Ultima modifica di tuttodigitale : 06-06-2017 alle 19:19.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 06-06-2017, 22:03   #20
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Eh? Ma che stai dicendo?
ACE con i tensor core? Ma lo sai almeno che cosa è l'Async computing e a che cosa serve? Mi sa di no.
E soprattutto, è evidente che non sai cosa siano i tensor core e dove siano messi.
bhè, io so' cos'è un vector processor, e sò anche quale sia e come viene utilizzata la funzionalità dell'asynchronous computing; tra l'altro sò anche dove sono in V100: ci hanno fatto interamente un processore da 815mm^2 a 12nm; interamente.

ad nvidia manca quella parte, e se vuole continuare ad aumentare le prestazioni della sua scheda piu' veloce, non ha tante alternative: o usa DX12 ed AC o non avrà vantaggio dai processori con piu' di 8 thread, quindi rimarrà legata solamente all'aumento di frequenza dei quad core, e non se lo puo' permettere.

e non accusare gli altri per quello che fai te in prima persona;
sei tu che sparli di una case senza avere il minimo pudore.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ad AMD serve migliorare notevolmente l'efficienza computazionale della sua architettura in modo che possa fare chip più piccoli e meno energivori.
http://media.gamersnexus.net/images/...doom-1080p.png
io qua vedo che un polaris (580 gaming x) sta al 90% di una 1070 Fe.
probabile che consumi uguale, circa 180W, ma è un chip piu' piccolo del 26%; vero che è un cut chip, ma vero anche che i 4 SM che mancano non valgono i l 20% di quel chip... l'avessero fatto full con 16 SM non sarebbe stato da 250mm^2
inutile che ti dica che la 390X è alla pari ad una 1070 in questo gioco, che ha una dimensione da 438mm^2, ma che è 28nm!
a 16nm non sarebbe che da 260mm^2 e mantenendo la frequenza a 1050mhz starebbe ben al di sotto dei 180W.

gioco palesemente favorevole a GNC, ma oggi non credo che facciano ancora giochi in DX9, se non qualche indie...
quindi come puoi pretendere che nel 2018 inoltrato, quando sul mercato ci saranno Navi e Volta, si usino ancora prepotentemente le DX11 per i giochi AAA?
la nuova generazione di giochi sarà DX12, perchè anche nvidia dovrà usare le DX12.

quindi dire che ad AMD serve migliorare l'efficienza sulle DX11, operando una layer di emulazione che le strozza come cornacchie, mi sembra assurdo, soprattutto a giugno 2017 e con la presentazione di processori fino a 18 core e 36 thread.
possiamo invece dire che nvidia deve riuscire a capire come stringere i suoi chip di un buon 20% cercando anche d'integrare funzionalità che oggi non ha integrato nei suoi chip?

e non c'e' bisogno di alzare cosi' i toni, che nessuno ha chiamato in causa le mamme.

quando uscirà la nuova architettura (e probabilmente non sarà la prossima, visto che ci dovremmo sorbire pascal con le GDDR6x per almeno 6 mesi prima di vedere qualcosa di nuovo) riprenderemo il discorso.

Ultima modifica di lucusta : 06-06-2017 alle 22:38.
lucusta è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Google Pixel 10 è compatto e ha uno zoom 5x a 899€: basta per essere un best-buy? Google Pixel 10 è compatto e ha uno zoom ...
Prova GeForce NOW upgrade Blackwell: il cloud gaming cambia per sempre Prova GeForce NOW upgrade Blackwell: il cloud ga...
Ecovacs Deebot X11 Omnicyclone: niente più sacchetto per lo sporco Ecovacs Deebot X11 Omnicyclone: niente più...
Narwal Flow: con il mocio orizzontale lava i pavimenti al meglio Narwal Flow: con il mocio orizzontale lava i pav...
Panasonic 55Z95BEG cala gli assi: pannello Tandem e audio senza compromessi Panasonic 55Z95BEG cala gli assi: pannello Tande...
Nuovo test di accensione dei motori per ...
Novità dalle analisi dell'asteroi...
La PS6 sarà più potente del previsto: ec...
Sony svela Xperia 10 VII: è il nu...
Amazon Weekend da urlo: iPhone 16 a prez...
Spotify diffida ReVanced: chiesta la rim...
Spazzolini elettrici Oral-B iO in super ...
Samsung Galaxy Watch8 Classic e Watch7 a...
Blue Origin prosegue lo sviluppo di Blue...
Roborock Saros 10 e 10R dominano il merc...
Apple scatenata su Amazon: tutti gli sco...
Canon EOS C50 è la nuova videocam...
ASUS ProArt P16 arriva in Italia: la wor...
Fujifilm presenta l'obiettivo FUJINON GF...
Il grafene ha appena 'infranto' una legg...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 18:11.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1