View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Ti accontenti di poco :fagiano: . Il confronto bisogna farlo anche in funzione del bilanciamento dell'architettura.
I geo engine non sono una novità architetturale ma una scelta di bilanciamento per GCN. Polaris su Tonga(stesse condizioni) migliora del 6%.
Non mi sembra nulla di eclatante. Sono solo miglioramenti minori, ottenuti "per lo più" con tecniche di compressione che usano persino le GPU mobile (ARM,PVR).
Per me, Kepler(colabrodo) vs maxwell è un miglioramento "netto".
Su Pascal concordo, è una minestra riscaldata focalizzata esclusivamente sul clock.
Nulla di eclatante?
Da gcn seconda generazione a gcn quarta abbiamo un miglioramento di performance a volte vicino al 50 % in certi titoli, ti sembra poco? Il tutto a parità di cu e clock e consumi (se il pp è lo stesso).
Ricordiamoci che la 480 è teoricamente meno potente della 390x, ha il 20 % in meno di shaders, una potenza teorica del 5 % circa inferiore, una banda passante del 30 % inferiore (384, vs 256 GB/sec), ma sta sempre davanti alla 390x e non ci sta davanti solo per questioni di frequenze maggiori!
Difatti mettendole a pari flops la 480 è nettamente avanti (7% medio, 15 % in certi titoli).
Dire che gcn non migliora nel tempo mi pare un assurdità.
Nulla di eclatante?
Da gcn seconda generazione a gcn quarta abbiamo un miglioramento di performance a volte vicino al 50 % in certi titoli, ti sembra poco? Il tutto a parità di cu e clock e consumi (se il pp è lo stesso).
Ricordiamoci che la 480 è teoricamente meno potente della 390x, ha il 20 % in meno di shaders, una potenza teorica del 5 % circa inferiore, una banda passante del 30 % inferiore (384, vs 256 GB/sec), ma sta sempre davanti alla 390x e non ci sta davanti solo per questioni di frequenze maggiori!
Difatti mettendole a pari flops la 480 è nettamente avanti (7% medio, 15 % in certi titoli).
Dire che gcn non migliora nel tempo mi pare un assurdità.
Io non ho detto che non migliora ma che non è nulla di eclatante. Ovviamente parlo di architettura, non dei miglioramenti portati dal processo produttivo ne dalle memorie.
Di cosa ti meravigli, la 390 ha un bilanciamento discutibile con colli di bottiglia ovunque (setup,rops/bw etc).
La 480 è un altro pianeta come bilanciamento ed il clock scala sempre meglio delle unità per via della legge di Amdahl.
Del resto i numeri di computerbase parlano chiaro. (+6% di IPC con il medesimo bilanciamento)
https://translate.googleusercontent.com/translate_c?depth=1&hl=it&ie=UTF8&prev=_t&rurl=translate.google.it&sl=de&tl=en&u=https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/&usg=ALkJrhgYBcoQpfgiFPlpmOXkH5T_-fZxmg
Beh insomma.
Un po' eclatante lo é.
Una 480 che costa circa 250Euro, va come e piú di una 390x che ne costava fino a poco tempo fa il doppio.
Per vedere il miglioramento eclatante, paragona la 480 (o la 470) con una GPU di pari prezzo della serie precedente.
Inviato dal mio GT-I9505 utilizzando Tapatalk
Soulbringer
06-11-2016, 22:11
I miglioramenti ci sono stati, ma soprattutto perché hanno"corretto" i problemi in dx11. Comunque nulla da dire, la 480 è una scheda progettata bene, sicuramente meglio delle vecchie.
Beh insomma.
Un po' eclatante lo é.
Una 480 che costa circa 250Euro, va come e piú di una 390x che ne costava fino a poco tempo fa il doppio.
Per vedere il miglioramento eclatante, paragona la 480 (o la 470) con una GPU di pari prezzo della serie precedente.
Inviato dal mio GT-I9505 utilizzando Tapatalk
Il mio discorso è riferito alla sola architettura ed i relativi miglioramenti di IPC/Consumi.
La RX480 è un ottimo prodotto non si discute.;)
Il mio discorso è riferito alla sola architettura ed i relativi miglioramenti di IPC/Consumi.
La RX480 è un ottimo prodotto non si discute.;)
peccato per il dissi reference, davvero han perso una grande occasione
peccato per il dissi reference, davvero han perso una grande occasione
Ma parlavano un gran bene delle reference!?
Free Gordon
07-11-2016, 03:04
Imho i miglioramenti da HD7970 a RX470 (32CU) ci sono stati. Certo, sostanzialmente è la stessa minestra, con qualche accorgimento in più...ma direi che lato prestazioni, tirando le somme, si può essere abb contenti di GCN e delle evoluzioni.
I veri problemi sono i consumi (sopratutto se la si guarda dal pdv del mobile, infatti AMD ha perso molte quote in quel settore con GCN).
Non potrebbe esistere una RX 470 a 28nm (non raggiungerebbe quelle frequenze..) ma quel che è certo, è che non consumerebbe molto meno di una R9 380X...anzi... :eek:
Vengono spenti i due setup\shader engine (rasterizer,geometry) con le CU in cascata. I command processor e la gestione della memoria rimangono condivisi.
http://cdn.videocardz.com/1/2016/07/Polaris-10-Block-Diagram-e1467637605770.jpg
"Mark Cerny ha affermato di aver lavorato a stretto contatto con AMD per creare alcune soluzioni personalizzate ed esclusive, utilizzando inoltre funzionalità che saranno disponibili solo nella prossima generazione di schede grafiche che seguiranno Polaris"
quindi conferma che in Vega ci saranno novità usate nella PS4 Pro con Polaris.
anche se:
"La GPU è in realtà composta da due processori gemelli che lavorano in parallelo, identici a quelli della PlayStation4 originale ma ad una velocità di 911 Mhz: da qui banalmente la potenza di calcolo più che doppia. Tali modifiche sono state implementate con uno scopo ben preciso, quello di garantire compatibilità completa con i giochi già disponibili su PlayStation 4: in pratica quando si inserisce un disco o si scarica un gioco che non ha ricevuto il "trattamento" Pro mediante una patch, una delle due GPU si spegne e tutti i processori tornano alla velocità del modello standard."
quella di PS4 non è Polaris?...uhm, ma questa è un altra storia...
Da quello che si legge sempre di GCN si tratta.
Si parla di FP16 double rate e vari buffer temporali tra le caratteristiche della Pro.
Soulbringer
07-11-2016, 15:04
ma si infatti, per me è esattamente P10 con features che vedremo in Vega tra qualche mese...
Sei ottimista, vedo... :asd:
Free Gordon
07-11-2016, 15:25
c'è da limare e molto sui consumi, ma la 475 potrebbe stupire su questo lato il silicio non è nemmeno rodato.
RX 475 base Vega11, potrebbe essere la scheda che attendo.
Ma ho paura che arrivi troppo in là.... :(
Free Gordon
07-11-2016, 15:28
se sono due gpu nello stesso die a tal punto che una è possibile spegnerla e l'altra è identica a quella della ps4 è di fatto un "cross" e non vedo cosa c'entri polaris...
No..
L'APU dentro a PS4 PRO è semplicemente un'upgrade dal vecchio Pitcairn (20CU di cui 2 disabilitate; 32ROPs) alla logica di Polaris (36CU; 32ROPs). ;)
Nessun cross... :D
mikael84
07-11-2016, 16:10
Imho i miglioramenti da HD7970 a RX470 (32CU) ci sono stati. Certo, sostanzialmente è la stessa minestra, con qualche accorgimento in più...ma direi che lato prestazioni, tirando le somme, si può essere abb contenti di GCN e delle evoluzioni.
I veri problemi sono i consumi (sopratutto se la si guarda dal pdv del mobile, infatti AMD ha perso molte quote in quel settore con GCN).
Non potrebbe esistere una RX 470 a 28nm (non raggiungerebbe quelle frequenze..) ma quel che è certo, è che non consumerebbe molto meno di una R9 380X...anzi... :eek:
Il vero problema di GCN è il command processor non scalabile. Quindi se vuoi fare chipponi, devi mettere in conto di avere un chip sbilanciato in vari settori. Con Nvidia carichi il GPC, ed hai tutto, cache, rop's, reparto geometrico avanzato, raster-z-cull etc.
Questo non succede con AMD, quindi i chip low e mid saranno sempre abbastanza bilanciati, il problema nasce quando cerchi di creare un chip potente.
La 470 si porta con se i 4 geo engine e primitive discard (reparto geometrico superiore anche alla fury x) e la cache di ben 2mb suddivisa in 4 blochci da 256kb. La 7970 aveva solo 768kb su 12 blocchi da 64kb.
Le rops' erano classiche e senza compressione, quindi poco efficienti, se non sotto tortura.
La 480 ad esempio ha la stesso BW della 290x, circa 250gb/s effettiva.;)
Soulbringer
07-11-2016, 16:47
Il vero problema di GCN è il command processor non scalabile. Quindi se vuoi fare chipponi, devi mettere in conto di avere un chip sbilanciato in vari settori. Con Nvidia carichi il GPC, ed hai tutto, cache, rop's, reparto geometrico avanzato, raster-z-cull etc.
Questo non succede con AMD, quindi i chip low e mid saranno sempre abbastanza bilanciati, il problema nasce quando cerchi di creare un chip potente.
La 470 si porta con se i 4 geo engine e primitive discard (reparto geometrico superiore anche alla fury x) e la cache di ben 2mb suddivisa in 4 blochci da 256kb. La 7970 aveva solo 768kb su 12 blocchi da 64kb.
Le rops' erano classiche e senza compressione, quindi poco efficienti, se non sotto tortura.
La 480 ad esempio ha la stesso BW della 290x, circa 250gb/s effettiva.;)
Scusa l'ignoranza, sto cercando di capirci qualcosa...GPC sta per? Però non riesco ad afferrare perché un "chippone" GCN sarebbe per forza sbilanciato. Con le vecchie versione di GCN a quanto ho capito era tutto sbilanciato, quindi anche le varie 380, 390 e fury. Ora, se hanno creato le 470 e 480 in maniera più bilanciata, perché dovrebbero tornare indietro con Vega?
Free Gordon
07-11-2016, 17:20
Il vero problema di GCN è il command processor non scalabile. Quindi se vuoi fare chipponi, devi mettere in conto di avere un chip sbilanciato in vari settori. Con Nvidia carichi il GPC, ed hai tutto, cache, rop's, reparto geometrico avanzato, raster-z-cull etc.
Questo non succede con AMD, quindi i chip low e mid saranno sempre abbastanza bilanciati, il problema nasce quando cerchi di creare un chip potente.
La 470 si porta con se i 4 geo engine e primitive discard (reparto geometrico superiore anche alla fury x) e la cache di ben 2mb suddivisa in 4 blochci da 256kb. La 7970 aveva solo 768kb su 12 blocchi da 64kb.
Le rops' erano classiche e senza compressione, quindi poco efficienti, se non sotto tortura.
La 480 ad esempio ha la stesso BW della 290x, circa 250gb/s effettiva.;)
Ricordiamoci che GCN...è nata per/con-in-mente "Fusion". :) (quindi sicuramente NO-chipponi ;) )
E' stata Nvidia a cambiare le carte in tavola, innaugurando l'era delle Titan/chippone, complice anche la congiuntura dello stallo nei processi litografici...
Nelle intenzioni GCN era un architettura all-in-one general purpose che doveva divenire una sorta di coprocessore avanzato, distaccandosi nettamente dall'architettura essenzialmente gaming (terascale) precedente..
Gli errori, se vogliamo, sono stati proprio quelli: credere in un progetto che era difficilissimo imporre e che ormai è naufragato da diversi anni, ma con un evidente strascico...
Io spero che con V9 cambino molte cose alla base, anche se non ci credo moltissimo... (troppi legami con le console, almeno fino al 2020 :fagiano: )
Nvidia è a blocchi modulari amd no
Nel momento in cui tagli il chip sulle nvidia infatti vedi le cose più fantasiose per attaccare la gpu alla vram, partono dall'alto con un chip full a n moduli e poi scalano verso il basso levando "moduli" o gpc nel caso verde
mikael84
07-11-2016, 19:27
Scusa l'ignoranza, sto cercando di capirci qualcosa...GPC sta per? Però non riesco ad afferrare perché un "chippone" GCN sarebbe per forza sbilanciato. Con le vecchie versione di GCN a quanto ho capito era tutto sbilanciato, quindi anche le varie 380, 390 e fury. Ora, se hanno creato le 470 e 480 in maniera più bilanciata, perché dovrebbero tornare indietro con Vega?
(Graphics Processing Clusters) , ovvero un "blocco" che racchiude gli SMM (128 cuda per SMM), i relativi polymorph engine, la cache, le rop's e le varie l1, cache registri.
Una 1060, ne ha 2, una 1070, 3, ed una 1080 4.
Aumentare un GPC significa aumentare tutto.
AMD non ha un processore scalabile e di conseguenza è costretto sui chipponi a portarsi dietro colli di bottiglia, come il reparto geometrico, la cache e altro.;)
Ricordiamoci che GCN...è nata per/con-in-mente "Fusion". :) (quindi sicuramente NO-chipponi ;) )
E' stata Nvidia a cambiare le carte in tavola, innaugurando l'era delle Titan/chippone, complice anche la congiuntura dello stallo nei processi litografici...
Nelle intenzioni GCN era un architettura all-in-one general purpose che doveva divenire una sorta di coprocessore avanzato, distaccandosi nettamente dall'architettura essenzialmente gaming (terascale) precedente..
Gli errori, se vogliamo, sono stati proprio quelli: credere in un progetto che era difficilissimo imporre e che ormai è naufragato da diversi anni, ma con un evidente strascico...
Io spero che con V9 cambino molte cose alla base, anche se non ci credo moltissimo... (troppi legami con le console, almeno fino al 2020 :fagiano: )
Vedendo lo schema sono molto curioso, peccato non avere un qualcosa di affidabile in mano.
Occhio però che un cambio abbastanza marcato, magari servendosi di un compilatore, può creare vari problemi di driver per più schede, come Kepler..
Soulbringer
07-11-2016, 20:03
(Graphics Processing Clusters) , ovvero un "blocco" che racchiude gli SMM (128 cuda per SMM), i relativi polymorph engine, la cache, le rop's e le varie l1, cache registri.
Una 1060, ne ha 2, una 1070, 3, ed una 1080 4.
Aumentare un GPC significa aumentare tutto.
AMD non ha un processore scalabile e di conseguenza è costretto sui chipponi a portarsi dietro colli di bottiglia, come il reparto geometrico, la cache e altro.;)
Grazie! :) Quindi, parlando terra terra, diciamo che nVidia crea le varie fasce "giocando" con questi GPC che contengono un po' tutto quello di cui necessita una GPU: la fascia bassa ne avrà di meno e le altre aumentano via via che si sale. AMD invece ha il contenuto del GPC "sparso" in giro e quindi deve ogni volta progettare tutto il posizionamento da zero, fascia per fascia.
Ho detto cazzate? :D
Se il ragionamento fila però, non capisco perché allora AMD non replichi "virtualmente" un corrispettivo GPC portandosi dietro tutto quello che serve, evitando così colli di bottiglia... :stordita:
mikael84
07-11-2016, 23:05
Grazie! :) Quindi, parlando terra terra, diciamo che nVidia crea le varie fasce "giocando" con questi GPC che contengono un po' tutto quello di cui necessita una GPU: la fascia bassa ne avrà di meno e le altre aumentano via via che si sale. AMD invece ha il contenuto del GPC "sparso" in giro e quindi deve ogni volta progettare tutto il posizionamento da zero, fascia per fascia.
Ho detto cazzate? :D
Se il ragionamento fila però, non capisco perché allora AMD non replichi "virtualmente" un corrispettivo GPC portandosi dietro tutto quello che serve, evitando così colli di bottiglia... :stordita:
Giocando no, ha creato un'architettura scalabile in tutto e per tutto, ma anche kepler e fermi lo era :)
nvidia per l'appunto carica il GPC ed ha tutto, AMD no, perchè non ha un processore scalabile.
Ti faccio un esempio banale. Un GPC Nvidia viene collegato con 32 rop's ed 1mb di cache l2 (ovvero 16 rop's e 256kb l2 su 32bit), ma nello stesso tempo, ogni 128 cuda, elaborano 0,33 triangoli al secondo. Quindi un GPC, è l'equivalente di 2 raster AMD.
Il raster di AMD (rx480 esempio), è collegato con 9 CU, 8 rop's ed 1 triangolo.
Se vuoi pompare il chip AMD, devi aumentare i CU, di conseguenza aumenti le rop's, ma non aumenti i raster, la cache (l1/l2 e vettoriale), il reparto geometrico, backfaceculling inesistente (ecco perchè heaven su AMD non va) ed ecco che trovi colli di bottiglia.
Questo non succede con le AMD di fascia media, perchè è tutto equilibrato.:)
Soulbringer
08-11-2016, 08:20
Giocando no, ha creato un'architettura scalabile in tutto e per tutto, ma anche kepler e fermi lo era :)
nvidia per l'appunto carica il GPC ed ha tutto, AMD no, perchè non ha un processore scalabile.
Ti faccio un esempio banale. Un GPC Nvidia viene collegato con 32 rop's ed 1mb di cache l2 (ovvero 16 rop's e 256kb l2 su 32bit), ma nello stesso tempo, ogni 128 cuda, elaborano 0,33 triangoli al secondo. Quindi un GPC, è l'equivalente di 2 raster AMD.
Il raster di AMD (rx480 esempio), è collegato con 9 CU, 8 rop's ed 1 triangolo.
Se vuoi pompare il chip AMD, devi aumentare i CU, di conseguenza aumenti le rop's, ma non aumenti i raster, la cache (l1/l2 e vettoriale), il reparto geometrico, backfaceculling inesistente (ecco perchè heaven su AMD non va) ed ecco che trovi colli di bottiglia.
Questo non succede con le AMD di fascia media, perchè è tutto equilibrato.:)
Ok, grazie, qualcosa di più l'ho capito...:D Mi rimane sempre da capire perché però AMD non si porta dietro tutte le cose che hai menzionato anche sulle fasce più spinte "raster, la cache (l1/l2 e vettoriale), il reparto geometrico, backfaceculling". Lo spazio sul chip da cosa viene occupato a posto di queste cose??
cosa vuol dire che non ha un processore scalabile?
Da quello che ho inteso, vuol dire che nVidia per "scalare" la potenza di una scheda si è creata un'unita GPC che di per sé è tutto quello che serve ad una GPU per funzionare e, a seconda della potenza desiderata, ne piazza di più o di meno.
AMD non ha questa unità, ma piuttosto cerca ogni volta di riorganizzare tutto.
Soulbringer
08-11-2016, 08:37
beh, hanno sempre parlato di 2017 con la scritta Vega sul 2017 tanto da scatenare il forum in "esce il 31 2016 allora non è in ritarno o esce il 1 2017 allora è in ritardo" :asd: cosa che magari qualcuno qui ha davvero un altro tipo di ritardo :rotfl:, e non a metà come Polaris, news ogni tanto ne parlano, le hbm2 sono pronte... insomma tutto fa pensare ad un Q1 2017 per Vega al massimo, quindi nell'ordine di 3 o 4 mesi da oggi...
Assolutamente, ormai tra gennaio e dicembre non cambia molto è che, onestamente, non si trovano molte news a riguardo, a parte i soliti copia-incolla. Sperem!
ah il tutto scalabile in quel senso, pensavo proprio ad un componente specifico... e comunque mi rimane ancora oscuro il perché non possa essere così scalabile :stordita:
Si, o almeno è questo quello che ho capito dal discorso di mikael84. Il tuo dubbio invece rimane anche il mio, in sostanza :D
Ragazzi è plausibile che al CES 2017 (gennaio) venga presentata l'ipotetica RX 490?
Volevo comprare la vga nuova ma la RX 480 non mi sembra abbastanza potente per essere garantire qualche anno di tranquillità.
Free Gordon
08-11-2016, 10:00
Ragazzi è plausibile che al CES 2017 (gennaio) venga presentata l'ipotetica RX 490?
Imho sì. :)
Imho sì. :)
Speriamo...
Anche perché poi:
- Va aspettato il lancio ufficiale.
- Va aspettata la disponibilitá nei negozi.
- Va aspettato il normale assestamento dei prezzi...
Speriamo...
Anche perché poi:
- Va aspettato il lancio ufficiale.
- Va aspettata la disponibilitá nei negozi.
- Va aspettato il normale assestamento dei prezzi...
Va aspettata l'uscita del WB full cover per spremerla come un lampone.
Inviato dal mio LG-D802 utilizzando Tapatalk
se fa come con polaris e la annucia al CES, si troverà nei negozi a cavallo tra gennaio e febbraio. mi pare fosse un mese la finestra di lancio.
Sperem.
Anche perché vanno aspettate le custom.
Ma quello che mi fará aspettare di piú, sará l'assestamento dei prezzi.
Nel frattempo capiró come vanno con calma ;)
A costi accettabili non prima di febbraio/marzo
A costi accettabili non prima di febbraio/marzo
se polaris pare barolo vega sarà un sassicaia :O
raven segna!!!!!!!!!!!!
http://stream1.gifsoup.com/view2/1327451/cool-guy-in-red-shirt-o.gif
Free Gordon
11-11-2016, 00:09
Interessante.
155W per tutta la console, è un bel risultato.. Certo, dentro c'è una P10 underclockata...ma c'è anche tutto il resto. :)
Direi che è un ottimo risultato no? :)
giovanbattista
11-11-2016, 01:53
errore
fraussantin
11-11-2016, 06:31
ah giusto per la cronaca:
"PlayStation 4 Pro ha fatto segnare un consumo pari a 155W contro i 148W della PlayStation 4 originale"
4.20 vs 1.85 TF (+127%) per lo stesso consumo (+5%) dai 28 ai 14nm (considerando +500mhz clock cpu e +111mhz clock gpu e raddoppio CU).
Cmq se le nuove scatolette avranno 4,5 tflop le attuali gen di fascia media saranno presto fascia bassa.
A sto punto dubito anche che la 1070 sia sufficiente per stargli dietro. ( cioè a pari ottimizzazione la passa, ma non c'è mai).
A sto punto speriamo in navi/volta magari con una fascia da 300,400 euro prestante.
se polaris pare barolo vega sarà un sassicaia :O
raven segna!!!!!!!!!!!!
:O
http://www.tavernello.it/wp-content/uploads/2013/07/bag-box-409x402.png
:O
fraussantin
11-11-2016, 06:45
:asd:
http://uploads.tapatalk-cdn.com/20161111/105a8f97039a30c08a5999ad01465ac2.jpg
devil_mcry
11-11-2016, 07:57
ah giusto per la cronaca:
"PlayStation 4 Pro ha fatto segnare un consumo pari a 155W contro i 148W della PlayStation 4 originale"
4.20 vs 1.85 TF (+127%) per lo stesso consumo (+5%) dai 28 ai 14nm (considerando +500mhz clock cpu e +111mhz clock gpu e raddoppio CU).
Io aspetterei a misurare i consumi della Pro solo perché tutti i giochi attuali sono al più patchati per quella console mentre la vecchia era già alla canna del gas (nel senso che con alcuni giochi non teneva nemmeno i 30fps).
E' da vedere con i primi titoli per PS4 Pro quanto realmente consuma e quanto è il suo vero potenziale
fraussantin
11-11-2016, 08:29
si è UC rispetto alla desktop, ma è in OC rispetto alla PS4 originale.
per quello che "quasi" a parità di architettura anche se non è esattamente la stessa si possono paragonare i TF, il che appunto fa segnare un 2.27x.
Se non ricordo male il salto dalla PS3 alla PS4 era di 4~5 volte (edit su wikipedia dice 400GF per la 3, vs quindi i 1.85TF della 4), su architettura diverse certo, quindi in realtà dopo 3 anni è in linea con un salto naturale di potenza (2.27^2=5.2x).
Certo che il 2.27x in quelle condizioni di consumo dopo un semplice shrink su fondamentalmente la stessa architettura raddoppiata, è un ottimo risultato.
la 4Pro sta sui 4.2TF, mentre la Scorpio tra circa un anno sui 6TF, ma sono TF GCN che su desktop non corrispondono ai TF Maxwell/Pascal, ma che su console potrebbero rendere sicuramente di più dato lo sviluppo più viscerale del codice e quindi la 480 desktop ne potrebbe risentire, ma una 1070/980ti secondo me non soffriranno più di tanto questo passaggio, hanno comunque circa 6.5/7 TF con i clock giusti, e non credo che gli sviluppatori boicotteranno la "caritevole" nvidia :read:
Si che a parità di tf gnc vada peggio si sa.
Il problema è la storia ci insegna che per pc serve molta più potenza rispetto alle console per via delle pessime ottimizzazioni.
La cosa ultimamente è migliorata ma su alcuni titoli ancora ci sono differenze abissali.
Prendi batman per esempio su un hw della potenza della ps4 non si muove neppure. Idem per gli ac.
Cmq se le nuove scatolette avranno 4,5 tflop le attuali gen di fascia media saranno presto fascia bassa.
A sto punto dubito anche che la 1070 sia sufficiente per stargli dietro. ( cioè a pari ottimizzazione la passa, ma non c'è mai).
A sto punto speriamo in navi/volta magari con una fascia da 300,400 euro prestante.
Sì, ma considera che la PS4 e X1 esistono ancora. E anzi, gli sviluppatori sono obbligati a fare sì che i giochi vadano sia su Pro che su PS4.
Quindi la qualità grafica di base dei giochi per console non migliorerà. E in teoria non dovrebbero cambiare molto nemmeno i requisiti per farli girare.
Comunque i 155w e 200 di picco della nuova ps4 non mi sorprendono neanche tanto alla fine parliamo di consumi paralleli a un notebook con 1070/1080 mobile, ovviamente il mondo mobile è diverso cosi come i prezzi però dal punto di vista tecnologico non mi pare un passo cosi sorprendente, poi sicuramente tra 1-2 anni faranno la PS4 Pro Slim e si va avanti così :fagiano:
Sicuramente lo sviluppo invece seguirà un netto balzo, in quanto gli sviluppatori passano dal dover sviluppare da una 7850 a una RX480 senza contare che anche la struttura di PS4 è stata mutata aggiungendo anche 1GB di ram per la gestione di SW e servizi in background, rendendo il distacco dal pc praticamente inesistente fatta eccezione per l'OS e le API proprietarie di sony.
Sì, ma considera che la PS4 e X1 esistono ancora. E anzi, gli sviluppatori sono obbligati a fare sì che i giochi vadano sia su Pro che su PS4.
Quindi la qualità grafica di base dei giochi per console non migliorerà. E in teoria non dovrebbero cambiare molto nemmeno i requisiti per farli girare.
Su questo punto non credo, in sostanza ci sarà una differenza di dettagli un po come su pc tra dettagli medi senza filtri (PS4) e dettagli alti con filtri (PS4 Pro), anche la risoluzione giocherà molto sulla cosa, sicuramente sulla PS4 pro ci sarà la possibilità di renderizzare alcuni titoli in 4K (con tutti i compromessi del caso)
Comunque i 155w e 200 di picco della nuova ps4 non mi sorprendono neanche tanto alla fine parliamo di consumi paralleli a un notebook con 1070/1080 mobile, ovviamente il mondo mobile è diverso cosi come i prezzi però dal punto di vista tecnologico non mi pare un passo cosi sorprendente, poi sicuramente tra 1-2 anni faranno la PS4 Pro Slim e si va avanti così :fagiano:
Sicuramente lo sviluppo invece seguirà un netto balzo, in quanto gli sviluppatori passano dal dover sviluppare da una 7850 a una RX480 senza contare che anche la struttura di PS4 è stata mutata aggiungendo anche 1GB di ram per la gestione di SW e servizi in background, rendendo il distacco dal pc praticamente inesistente fatta eccezione per l'OS e le API proprietarie di sony.
Su questo punto non credo, in sostanza ci sarà una differenza di dettagli un po come su pc tra dettagli medi senza filtri (PS4) e dettagli alti con filtri (PS4 Pro), anche la risoluzione giocherà molto sulla cosa, sicuramente sulla PS4 pro ci sarà la possibilità di renderizzare alcuni titoli in 4K (con tutti i compromessi del caso)
Comunque a me qualcosa non torna, un p10 che riesce a gestire un 4k su console quando pure overclokkato su pc già in fhd è a limite e in 1440p ha frame troppo bassi per definirlo gestibile, io ho un monitor 3440x1440 e posso assicurarti che una rxx480 non ce la fà, voglio capire ottimizzare ma qui si devono far miracoli e sono serio nel dire questo o veramente le api sono così ottimizzate che si potrebbe? Mi viene in mente doom adesso.
devil_mcry
11-11-2016, 09:17
Comunque a me qualcosa non torna, un p10 che riesce a gestire un 4k su console quando pure overclokkato su pc già in fhd è a limite e in 1440p ha frame troppo bassi per definirlo gestibile, io ho un monitor 3440x1440 e posso assicurarti che una rxx480 non ce la fà, voglio capire ottimizzare ma qui si devono far miracoli e sono serio nel dire questo o veramente le api sono così ottimizzate che si potrebbe? Mi viene in mente doom adesso.
Ma non gestisce i 4k infatti, sono upscalati e pure a 30fps con ottimizzazioni varie in cosa ti fanno vedere. link (http://www.everyeye.it/articoli/speciale-ps4-pro-4k-nativo-con-upscale-ecco-come-funziona-checkerboard-rendering-31445.html)
Ma non gestisce i 4k infatti, sono upscalati e pure a 30fps con ottimizzazioni varie in cosa ti fanno vedere. link (http://www.everyeye.it/articoli/speciale-ps4-pro-4k-nativo-con-upscale-ecco-come-funziona-checkerboard-rendering-31445.html)
Dunque se il segnale arriva alla TV (per esempio) giá in 4K, vuol dire l'upscaling viene fatto da PS4.
Qui peró nasce un dubbio. Visto il prezzo complessivo della PS4, e calcolato che per un buon upscaling serve un'elettronica di tutto rispetto, siamo sicuri che di fronte ad una TV di qualitá, l'upscaling non convenga farlo fare ad essa direttamente?
Da 1080P (risoluzione nativa PS4) a 4K, il salto é importante.
Ricordo che un upscaler esterno, di buona qualitá ha un costo di circa 1.000Euro se non ricordo male.
fraussantin
11-11-2016, 09:35
Sì, ma considera che la PS4 e X1 esistono ancora. E anzi, gli sviluppatori sono obbligati a fare sì che i giochi vadano sia su Pro che su PS4.
Quindi la qualità grafica di base dei giochi per console non migliorerà. E in teoria non dovrebbero cambiare molto nemmeno i requisiti per farli girare.
Si questo è vero.
Ma va anche detto che se uscirà una vs hd e una sd quella che avrà il porting per pc sarà la.hd.
Come per gta5.
Se poi sarà la stessa vs con lo stesso engine e la stessa grafica, ( solo qualche effetto in piu e 60 fps) allora staremo tranquj.
Snickers
11-11-2016, 09:45
Dunque se il segnale arriva alla TV (per esempio) giá in 4K, vuol dire l'upscaling viene fatto da PS4.
Qui peró nasce un dubbio. Visto il prezzo complessivo della PS4, e calcolato che per un buon upscaling serve un'elettronica di tutto rispetto, siamo sicuri che di fronte ad una TV di qualitá, l'upscaling non convenga farlo fare ad essa direttamente?
Da 1080P (risoluzione nativa PS4) a 4K, il salto é importante.
Ricordo che un upscaler esterno, di buona qualitá ha un costo di circa 1.000Euro se non ricordo male.
Da 1080p a 4K l'upscaling è semplicissimo, dato che raddoppiano i pixel orizzontali e verticali. :read:
Comunque a me qualcosa non torna, un p10 che riesce a gestire un 4k su console quando pure overclokkato su pc già in fhd è a limite e in 1440p ha frame troppo bassi per definirlo gestibile, io ho un monitor 3440x1440 e posso assicurarti che una rxx480 non ce la fà, voglio capire ottimizzare ma qui si devono far miracoli e sono serio nel dire questo o veramente le api sono così ottimizzate che si potrebbe? Mi viene in mente doom adesso.
Si ma tieni conto anche del dettaglio, supporto a 4K non dice che il gioco verrà sparato al max dei dettagli, alla fine i dettagli saranno sempre equiparabili allo stesso gioco a dettagli medi su pc, con il vantaggio che renderizzando in 4K l'immagine è piu pulita e argina il fatto che le console non usino filtri immagine...
Alla fine se vedi, anche la tua scheda se disattivi filtri e metti tutto su medio renderizzi tranquillamente qualunque gioco in 4K senza contare che le console puntano a un frame di 30fps costanti...
Persino la 5870 che sto usando come GPU tampone regge tutti i giochi attuali a 2560x1080 ovviamente facendo molti compromessi, ma le console sono questo un compromesso tra prezzo, grafica e prestazioni e di certo inadatte a un determinato pubblico come quello di chi gioca su pc dove spesso neanche il dettaglio ultra soddisfa e si fa di mod e texture pack :sofico:
Si questo è vero.
Ma va anche detto che se uscirà una vs hd e una sd quella che avrà il porting per pc sarà la.hd.
Come per gta5.
Se poi sarà la stessa vs con lo stesso engine e la stessa grafica, ( solo qualche effetto in piu e 60 fps) allora staremo tranquj.
Sono abbastanza convinto che una cosa del genere non succederà mai.
La Sony ha detto che non ci potranno essere giochi esclusivi per la Pro - ergo, non si potrà avere una "versione HD". Quindi nessuno sviluppatore si prenderà la briga di fare due giochi diversi da mettere sullo stesso disco. E' molto più facile fare lo stesso gioco e poi renderlo a 4K (nativo o non) sulla Pro, o al massimo aumentare il framerate a 60fps, come dicono che dovrebbe fare FF15.
Anche perchè la pro, con tutta la sua potenza grafica extra, è pur sempre limitata dalla CPU, che è rimasta abbastanza ridicola. Ecco perchè abbiamo robe tipo Tomb Raider che riesce ad andare a 4K quasi nativo a 30fps, ma poi non riesce a tenere 60fps fissi in 1080p.
Comunque a me qualcosa non torna, un p10 che riesce a gestire un 4k su console quando pure overclokkato su pc già in fhd è a limite e in 1440p ha frame troppo bassi per definirlo gestibile, io ho un monitor 3440x1440 e posso assicurarti che una rxx480 non ce la fà, voglio capire ottimizzare ma qui si devono far miracoli e sono serio nel dire questo o veramente le api sono così ottimizzate che si potrebbe? Mi viene in mente doom adesso.
A parte la maggiore ottimizzazione, considera anche che i giochi per console raramente vanno ai dettagli massimi come su PC, di solito sono un misto fra vari settaggi fra cui alcuni molto bassi (spesso non usano neppure il filtro anisotropico...). Inoltre non è quasi mai 4K nativo ma quasi sempre upscalato, per non parlare del fatto che i 30fps spesso non sono neppure tanto costanti.
Comunque a me qualcosa non torna, un p10 che riesce a gestire un 4k su console quando pure overclokkato su pc già in fhd è a limite e in 1440p ha frame troppo bassi per definirlo gestibile, io ho un monitor 3440x1440 e posso assicurarti che una rxx480 non ce la fà, voglio capire ottimizzare ma qui si devono far miracoli e sono serio nel dire questo o veramente le api sono così ottimizzate che si potrebbe? Mi viene in mente doom adesso.
In breve funziona così :
L'immagine è renderizzata nel "caso migliore" alla risoluzione di 1920x2160.
I pixel mancanti vengono presi dal frame precedente interpolandoli.
L'algoritmo con un immagine movimenta perde risoluzione e performance.
La GPU della PRO ha delle caratteristiche apposite per accelerare il checkboarding.
Ale55andr0
11-11-2016, 16:15
È ancora il thread sulle nuove gpu amd?
Gyammy85
11-11-2016, 16:19
In breve funziona così :
L'immagine è renderizzata nel "caso migliore" alla risoluzione di 1920x2160.
I pixel mancanti vengono presi dal frame precedente interpolandoli.
L'algoritmo con un immagine movimenta perde risoluzione e performance.
La GPU della PRO ha delle caratteristiche apposite per accelerare il checkboarding.
Anche 1920x2160 è una bella risoluzione, sono comunque più pixel rispetto ai 1440p (4.147.200 contro 3.686.400)
Soulbringer
11-11-2016, 16:22
Anche 1920x2160 è una bella risoluzione, sono comunque più pixel rispetto ai 1440p (4.147.200 contro 3.686.400)
Infatti ha detto nel caso migliore...cioè campo minato 2D :asd:
Anche 1920x2160 è una bella risoluzione, sono comunque più pixel rispetto ai 1440p (4.147.200 contro 3.686.400)
Forse mi sono spiegato male.
I 1920x2160 sono riferiti ad i pixel aggiornati per frame sui 3840x2160 totali.
Con immagini statiche la risoluzione percepita è un 4K pieno.
In movimento la perdita di risoluzione percepita è un incognita...
cmq concordo è un bel escamotage, soprattutto su TV 4K ad una distanza di visione errata (la maggioranza)...:D
ps. cmq hanno detto che abbasseranno la risoluzione "statica" nei giochi più problematici.:asd:
È ancora il thread sulle nuove gpu amd?
Perchè le hai viste? :stordita:
Perchè le hai viste? :stordita:
Con il telescopio le vedi di sicuro...:sofico: (le stelline)
sgrinfia
11-11-2016, 20:21
Sono abbastanza convinto che una cosa del genere non succederà mai.
La Sony ha detto che non ci potranno essere giochi esclusivi per la Pro - ergo, non si potrà avere una "versione HD". Quindi nessuno sviluppatore si prenderà la briga di fare due giochi diversi da mettere sullo stesso disco. E' molto più facile fare lo stesso gioco e poi renderlo a 4K (nativo o non) sulla Pro, o al massimo aumentare il framerate a 60fps, come dicono che dovrebbe fare FF15.
Anche perchè la pro, con tutta la sua potenza grafica extra, è pur sempre limitata dalla CPU, che è rimasta abbastanza ridicola. Ecco perchè abbiamo robe tipo Tomb Raider che riesce ad andare a 4K quasi nativo a 30fps, ma poi non riesce a tenere 60fps fissi in 1080p.
A parte la maggiore ottimizzazione, considera anche che i giochi per console raramente vanno ai dettagli massimi come su PC, di solito sono un misto fra vari settaggi fra cui alcuni molto bassi (spesso non usano neppure il filtro anisotropico...). Inoltre non è quasi mai 4K nativo ma quasi sempre upscalato, per non parlare del fatto che i 30fps spesso non sono neppure tanto costanti.
No guarda che la cpu della nuova pro e aumentata in frequenza , arrivando a 2.0Ghz dai 1,6 Ghz della prima incarnazione , una play 8core a 2.0Ghz , sé il gioco e ben programmato per la macchina può dire la sua.
fraussantin
11-11-2016, 21:09
Edit
È ancora il thread sulle nuove gpu amd?
... a tempo perso.... :O
Free Gordon
11-11-2016, 23:41
Dunque se il segnale arriva alla TV (per esempio) giá in 4K, vuol dire l'upscaling viene fatto da PS4.
non è un semplice upscaling, cmq una parte di upscaling c'è sempre.
Free Gordon
11-11-2016, 23:43
Infatti ha detto nel caso migliore...cioè campo minato 2D :asd:
Spiderman gira a 1920x2160..e anche Horizon.
Sono entrambi abbastanza impressionanti...... ;)
Gyammy85
12-11-2016, 09:02
Spiderman gira a 1920x2160..e anche Horizon.
Sono entrambi abbastanza impressionanti...... ;)
Infatti...le console hanno fatto passi da gigante inutile negarlo...4.2 TF ben sfruttati non sono pochi
Comunque a me qualcosa non torna, un p10 che riesce a gestire un 4k su console quando pure overclokkato su pc già in fhd è a limite e in 1440p ha frame troppo bassi per definirlo gestibile, io ho un monitor 3440x1440 e posso assicurarti che una rxx480 non ce la fà, voglio capire ottimizzare ma qui si devono far miracoli e sono serio nel dire questo o veramente le api sono così ottimizzate che si potrebbe? Mi viene in mente doom adesso.
Io invece riesco a far girare tranquillamente Battlefield 4 su un monitor 4k con una 670 a 60 fps
Perchè?
Perchè dipende dai settings del gioco e dai dettagli
Non ci vuole la scienza ad arrivare a 4k, ci arrivano anche a schede di 6 anni fa.
Dipende poi come ottimizzi i settings.
Soulbringer
12-11-2016, 13:05
Io invece riesco a far girare tranquillamente Battlefield 4 su un monitor 4k con una 670 a 60 fps
Perchè?
Perchè dipende dai settings del gioco e dai dettagli
Non ci vuole la scienza ad arrivare a 4k, ci arrivano anche a schede di 6 anni fa.
Dipende poi come ottimizzi i settings.
Esatto... Sono d'accordo
Caterpillar_WRT
12-11-2016, 14:11
270X rulex :D
killeragosta90
12-11-2016, 14:45
Io invece riesco a far girare tranquillamente Battlefield 4 su un monitor 4k con una 670 a 60 fps
Perchè?
Perchè dipende dai settings del gioco e dai dettagli
Non ci vuole la scienza ad arrivare a 4k, ci arrivano anche a schede di 6 anni fa.
Dipende poi come ottimizzi i settings.
Giusto. Dipende dai "compomessi" adottati. :mano: (poi ci sarebbe anche la questione V.ram, vista l'elevata densità di pixel, ma in genere, il discorso è quello)
tra sfortuna, stupidità e follia, di AMD non mi stupisco più, purtroppo. Speriamo che VEGA nasca meglio, no che polaris faccia schifo, anzi, ma leggere che poteva essere meglio...
Spero molto in Vega mi serve una alternativa alla GTX 1070 per giocare a 1440p dettagli alti e 60 fps fissi. Peccato che la 480 si avvicina molto a questo target ma non lo centra in pieno.
E comunque aspetto fino al CES 2017 se AMD non presenta nulla dovrò valutare ahime, dopo la X1950GT, la HD6870 e la R9 380 ...... di passare a nvidia! :rolleyes:
Giusto. Dipende dai "compomessi" adottati. :mano: (poi ci sarebbe anche la questione V.ram, vista l'elevata densità di pixel, ma in genere, il discorso è quello)
I filtri (e texture) sono molto più rilevanti della risoluzione sulla vram però.
La maggior parte dei giochi (scritti decentemente) da 1080p a 4k prende un ulteriore gb nel peggiore dei casi in genere sui 600 mb (che poi è il frame buffer).
Spero molto in Vega mi serve una alternativa alla GTX 1070 per giocare a 1440p dettagli alti e 60 fps fissi. Peccato che la 480 si avvicina molto a questo target ma non lo centra in pieno.
E comunque aspetto fino al CES 2017 se AMD non presenta nulla dovrò valutare ahime, dopo la X1950GT, la HD6870 e la R9 380 ...... di passare a nvidia! :rolleyes:
Certo che vedendo la "voragine" temporale senza nuove schede top da parte di AMD (e relativo campo libero a nvidia) davvero non capisco perché i rossi non abbiano optato per una sorta di "refresh" della fury, portandola a 14nm + memorie ggdr5 ("x" o meno)... in fondo anche pascal è una sorta di maxwell 2.0... una bella "rinfrescatina" in tal senso all'architettura delle fury (economicamente sostenibile, credo!) e ne poteva uscire davvero il best buy dell'anno!... e invece... :stordita:
fraussantin
13-11-2016, 09:42
Certo che vedendo la "voragine" temporale senza nuove schede top da parte di AMD (e relativo campo libero a nvidia) davvero non capisco perché i rossi non abbiano optato per una sorta di "refresh" della fury, portandola a 14nm + memorie ggdr5 ("x" o meno)... in fondo anche pascal è una sorta di maxwell 2.0... una bella "rinfrescatina" in tal senso all'architettura delle fury (economicamente sostenibile, credo!) e ne poteva uscire davvero il best buy dell'anno!... e invece... :stordita:
Esatto.
La furyx come potenza di calcolo è sufficiente per la fascia che manca a amd. Farla a 14 nm ridurrebbe i consumi e forse anche senza hbm poteva andare.
Ma forse non hanno risorse neppure per quello.
O speravano di fare prima con vega.
Alla fine ci sarebbe anche il cross di 480 che fuori dall'Europa è competitivo. +o-..
Esatto.
La furyx come potenza di calcolo è sufficiente per la fascia che manca a amd. Farla a 14 nm ridurrebbe i consumi e forse anche senza hbm poteva andare.
Ma forse non hanno risorse neppure per quello.
O speravano di fare prima con vega.
Alla fine ci sarebbe anche il cross di 480 che fuori dall'Europa è competitivo. +o-..
Anche io lo pensavo ma dai test in rete la Fury liscia si comporta piu o meno come una 1060 nella media e poco sopra una RX480, solo in pochi titoli c'è un discreto distacco come hitman... Non so se sia una questione driver da ottimizzare, e AMD faccia un altro "miracolo", in quanto la potenza bruta sotto il cofano c'è ma nella realtà non rende come dovrebbe quindi il buco rimane, e spiegherebbe anche il perchè dell'enorme abbassamento di prezzo.
Il cross di 480 l'avevo valutato anche io ma a che pro? comunque pagheresti 450-500€ per andare piu o meno di una singola 1070 che consumerebbe 3 volte di meno... Non credo ci sono alternative, o aspetti Vega o vai di Nvidia c'è poco da fare...
Anche io lo pensavo ma dai test in rete la Fury liscia si comporta piu o meno come una 1060 nella media e poco sopra una RX480, solo in pochi titoli c'è un discreto distacco come hitman... Non so se sia una questione driver da ottimizzare, e AMD faccia un altro "miracolo", in quanto la potenza bruta sotto il cofano c'è ma nella realtà non rende come dovrebbe quindi il buco rimane, e spiegherebbe anche il perchè dell'enorme abbassamento di prezzo.
Il cross di 480 l'avevo valutato anche io ma a che pro? comunque pagheresti 450-500€ per andare piu o meno di una singola 1070 che consumerebbe 3 volte di meno... Non credo ci sono alternative, o aspetti Vega o vai di Nvidia c'è poco da fare...
Il problema della Fury è lo scarso bilanciamento, ha dei colli di bottiglia molto evidenti. La 480 è molto più bilanciata, a dispetto della minor potenza di shading.
Quindi in alcuni casi le due schede possono equivalersi, mentre quando la potenza "extra" della Fury può essere utilizzata, il distacco diventa importante e può addirittura avvicinarsi alla 1070.
E perche si è tagliata le gambe con buldozer quando bastava shrinkare thuban e incollarci due core? :eek:
Ho appena mandato il cv ad amd come capo soluzione tecniche, allego il post come referenza :O
Ho appena mandato il cv ad amd come capo soluzione tecniche, allego il post come referenza :O
http://www.getsmile.com/emoticons/smileys-91853/w/thumbs.gif
Faccio il tifo per te!!! http://i50.tinypic.com/53sd9t.jpg
E perche si è tagliata le gambe con buldozer quando bastava shrinkare thuban e incollarci due core? :eek:
Ho appena mandato il cv ad amd come capo soluzione tecniche, allego il post come referenza :O
Al tempo gli scrissi, dicendo "cara amd il 4 l'ho provato, il sei me lo hai dato, l'otto va incollato"...
Si vede l'han presa come filastrocca tipo "1-2-3 Freddy vien da te..." E l'han cestinata.
devil_mcry
14-11-2016, 11:48
ma si hai ragione si cambia architettura per pensare di migliorare... ma appunto deve migliorare, e Polaris è un fottuto shrink di Tonga con qualche miglioria di cui la più grande è la L2, sai che sbatti...
e PS. il problema dei K10 erano le AES e le AVX, si potevano solo emularle e per stravolgere un architettura che era l'erede di K8 ne fai una nuova.
Non sono sicuro che cambiare l'FPU in K10 fosse una cosa così infattibile ma comunque Polaris in ottica del cambio di architettura di Vega ha senso. Hanno preso tempo mettendo qualcosa sul mercato senza perderci troppo tempo in sviluppo
E hanno cambiato i vertici aziendali...chi lavora in multinazionali sabcosa significa ;) badate bene non voglio fare l'avvocato del diavolo, ma se si vuole valutare lo si deve fare per tutto...è sorprendente avere ancora amd attiva su cpu, gpu, apu e pure hpc e design professionale/vr con un budget che probabilmente nvidia usa per il merchandising ergo finché ci sono li supporto (ma non ho preso bulldozer all'uscita o la fury x, nel senso che non mi bevo o faccio bere ad altri qualsisi cosa faccia osannadola....io lo metto per iscritto, altri che fanno i belli e gli "obiettivi" no)
a beh, la penso uguale... su tutto ;)
solo una cosa, me lo spieghi cosa significa? :D lo posso immaginare ma potrei sbagliare...
Che se sai chi è il tuo nuovo capo e il tuo nuovo team devi sperare di non dover buttare tutto quello fatto fino a quel momento perché cambiati dal nuovo management i piani a medio/lungo termine (e solitamente per ripartire si taglia!!!soprattutto se con problemi finanziari o di cassa)
devil_mcry
14-11-2016, 14:31
il motivo era anche avere maggior throughput a parità di dimensioni die (345mmq sui 45nm vs 315 mmq sui 32nm ) e si stimava o c'erano le intenzioni che BD 8c sarebbe dovuto andare fino al +50% dal thuban 6c...
cioè, dopo un anno per fare la serie 300 che è un refresh della 200 (circa 18 mesi dopo!) e quindi R&D ~0 , raddoppiare Tonga per fare Fiji, dici che non volevano perdere troppo tempo? :stordita:
nel frattempo nvidia ha stravolto Kepler con Maxwell, ha fatto lo shrink di tutta la linea con Pascal ed è uscita persino prima! :muro:
io direi che amd ha troppi piedi in poche scarpe, e si spera che in tutto questo Zen esca allo stato dell'arte.
Forse hai letto male o ho capito male io, io non ho detto perdere tempo ma prendere tempo. Tanto ora come ora cosa avevano di meglio da offrire? La nuova architettura non è probabilmente pronta, se non subirà ritardi (come Zen) arriverà nella prima parte del 2017. Non far uscire nemmeno le 480 voleva dire rimanere fermi alla serie 300 e quindi alla serie 200.
Amd è indietro su tutto, la sua miglior soluzione desktop come CPU compete appena con i dual core ULV da 15w di Intel, CPU high end non ne fa più da 3 anni, lato ultra ULV non ha niente come gli attuali Core i5 e i7 da 4.5w (almeno non con quelle performance). Se non faceva uscire nemmeno uno straccio di VGA era davvero grave la situazione non credi? Polaris sarà una revisione modesta di Tonga come dici tu però qualche miglioria con se la porta e le 480 8gb tutto sommato sono buone.
si ma amd in confronto alle concorrenti intel/nvidia e' un'aziendina, dategli tregua, pensate sia facile, smaltire debiti, fare ricerca e investire a 360° concorrendo con tali giganti non e' mica cosa semplice, poi con mille difficolta' ed errori, fase congiunturale mica da poco, lasciatela lavorare, si sta' facendo il suo piccolo spazio, magari tra un po' finalmente qualcuno potra' acquistarsi al day one uno sli di 2090ti senza svenarsi
si ma amd in confronto alle concorrenti intel/nvidia e' un'aziendina, dategli tregua, pensate sia facile, smaltire debiti, fare ricerca e investire a 360° concorrendo con tali giganti non e' mica cosa semplice, poi con mille difficolta' ed errori, fase congiunturale mica da poco, lasciatela lavorare, si sta' facendo il suo piccolo spazio, magari tra un po' finalmente qualcuno potra' acquistarsi al day one uno sli di 2090ti senza svenarsi
Nel settore gpu fino alla serie 480 non se la è cavata male, anzi, ti ricordo che ai tempi della 290 era anche superiore alla 780: è stata la politica scellerata adottata con la serie 4 che ha creato un gap spaventoso con la concorrenza, e infatti i dati di vendita lo dimostrano, guarda le azioni nvidia come sono schizzate alle stelle....
E c'era pure più di qualcuno su questo thread che difendeva la politica commerciale adottata da AMD :muro:
E meno male che questi sarebbero gli "utenti scafati" :mbe:
Soulbringer
14-11-2016, 15:03
Nel settore gpu fino alla serie 480 non se la è cavata male, anzi, ti ricordo che ai tempi della 290 era anche superiore alla 780: è stata la politica scellerata adottata con la serie 4 che ha creato un gap spaventoso con la concorrenza, e infatti i dati di vendita lo dimostrano, guarda le azioni nvidia come sono schizzate alle stelle....
E c'era pure più di qualcuno su questo thread che difendeva la politica commerciale adottata da AMD :muro:
E meno male che questi sarebbero gli "utenti scafati" :mbe:
Non ho capito che serie intendi...il refresh 3xx? O le fury?
La roadmap è li da un anno
Vega q1 2017
Ma che mi frega a me delle azioni, amd ha aumentato il valore cinque volte in metà anno e alura?
Soulbringer
14-11-2016, 15:25
Quello che fa paura è che nVidia ha fatto il botto con Pascal, vendendo un sacco. A dimostrazione che i guadagni non si fanno solo sulla fascia mainstream...Pascal ha venduto bene su TUTTA la linea. AMD?
Boh, io spero che si smuova qualcosa seriamente...e in fretta.
i guadagni si fanno con il market share, e nvidia e' sempre predominante quindi e' normale che faccia il botto cosi' come le sue azioni
Quello che fa paura è che nVidia ha fatto il botto con Pascal, vendendo un sacco. A dimostrazione che i guadagni non si fanno solo sulla fascia mainstream...Pascal ha venduto bene su TUTTA la linea. AMD?
Boh, io spero che si smuova qualcosa seriamente...e in fretta.
Le schede di fascia alta (soprattutto quelle con il "chippino") hanno margini molto maggiori rispetto a quelle mainstream, quindi in parte compensano le minori vendite.
si ma amd in confronto alle concorrenti intel/nvidia e' un'aziendina, dategli tregua, pensate sia facile, smaltire debiti, fare ricerca e investire a 360° concorrendo con tali giganti non e' mica cosa semplice, poi con mille difficolta' ed errori, fase congiunturale mica da poco, lasciatela lavorare, si sta' facendo il suo piccolo spazio, magari tra un po' finalmente qualcuno potra' acquistarsi al day one uno sli di 2090ti senza svenarsi
Nvidia e AMD hanno una dimensione simile.
Se guardi i bilanci solo nel l'ultimo anno nvidia l'ha superata come fatturato, solo perchè AMD è in continuo declino...
Si ma parti di radeon graphics o amd?
amd fa' mille cose, nvidia fa' gpu.
Si ma parti di radeon graphics o amd?
amd fa' mille cose, nvidia fa' gpu.
Nvidia ha progettato due processori custom(denver e denver+) ed inoltre fa continue implementazioni di core ARM nei suoi prodotti automative/tablet. (con scarso successo commerciale)
Se non fosse per il successo di maxwell nvidia sarebbe sotto ad AMD come fatturato... (AMD ha perso 1 miliardo nel 2015)
Io continuo a pensare che ad amd o hanno i paraocchi o mancano di idee, chi ha avuto tahiti e poi tonga, sà che le rx sono la loro evoluzione, basta guardare com'è posizionato il chip sul pcb, quando hanno presentato le nuove vga amd si era capito subito fin dove potevano arrivare e fin qui niente da dire, quello che ha deluso sono i 4cu mancanti che ipoteticamente erano presenti in fase di progettazione e i 2560sp, mancanza di gddr5x che si sapeva erano utili, con questi piccoli accorgimenti oggi potevamo avere una delle migliori vga mai progettate, ma in amd non sono abituati a fare un ottimo lavoro, non ricordo una presentazione che ci ha lasciato convinti e soddisfatti, ma sempre con un punto interrogativo.
Forse in amd non hanno capito che noi vogliamo essere sorpresi, illusi e pure coccolati.
Nvidia ha progettato due processori custom(denver e denver+) ed inoltre fa continue implementazioni di core ARM nei suoi prodotti automative/tablet. (con scarso successo commerciale)
Se non fosse per il successo di maxwell nvidia sarebbe sotto ad AMD come fatturato... (AMD ha perso 1 miliardo nel 2015)
Si ma siamo sempre su due piani differenti, se confronti le varie divisioni, non c'e' confronto, cosi' come se confronti il lato cpu con intel, sicuramente hai piu' capacita' di me di capire che livello di investimenti ha nvidia sul lato gpu rispetto ad amd, anche se il fatturato e' simile.
Per come la presenti tu spendono lo stesso in ricerca e una fa' le schedone e l'altra i pisciaturi...
Nvidia e AMD hanno una dimensione simile.
Se guardi i bilanci solo nel l'ultimo anno nvidia l'ha superata come fatturato, solo perchè AMD è in continuo declino...
AMD sta andando avanti con i chip per console.. però sta lasciando troppo campo ad nvidia nel schede video... nvidia ovviamente sfrutta la posizione dominante in questo mercato
non solo, amd sta' mettendo in pratica i piani di lungo periodo, ripianando i debiti, rafforzando la presenza nel settore mainstream, molto piu' importante, andando avanti con le cpu e lo sviluppo delle apu, che si e' tradotto nella fornitura delle console, impegno non semplice visti i competitor, e' ovvio che le cose non si ribaltano dall'oggi al domani.
Si ma siamo sempre su due piani differenti, se confronti le varie divisioni, non c'e' confronto, cosi' come se confronti il lato cpu con intel, sicuramente hai piu' capacita' di me di capire che livello di investimenti ha nvidia sul lato gpu rispetto ad amd, anche se il fatturato e' simile.
Per come la presenti tu spendono lo stesso in ricerca e una fa' le schedone e l'altra i pisciaturi...
Sei tu che hai accostato nvidia ad intel per giustificare la povera AMD.;)
AMD ha speso male negli anni il suo budget in R&D, soprattutto sul lato CPU dove ha sperperato per due architetture fallimentari commercialmente. Ha buttato più di mezzo miliardo per acquisire seamicro ecc...:doh:
AMD sta andando avanti con i chip per console.. però sta lasciando troppo campo ad nvidia nel schede video... nvidia ovviamente sfrutta la posizione dominante in questo mercato
Esatto.;)
Ha 4 soc (16nm) console in produzione ed altri fatti su misura per i cinesi in arrivo (con zen).
Contratti da miliardi (soldi sicuri), mica noccioline, dove non serve nulla di più di GCN. (per ora)
Economicamente non credo sia conveniente puntare tutto sulla competizione con nvidia, dove ti serve una GPU con i controcaxxi per convincere i clienti fidelizzati verdi.
Lisa Su ha sicuramente le idea chiare, al contrario delle precedente dirigenza...:rolleyes:
Sei tu che hai accostato nvidia ad intel per giustificare la povera AMD.;)
AMD ha speso male negli anni il suo budget in R&D, soprattutto sul lato CPU dove ha sperperato per due architetture fallimentari commercialmente. Ha buttato più di mezzo miliardo per acquisire seamicro ecc...:doh:
Scusa quali altri competitor ha? Almeno quelli relativi al core business sono questi, con quali altri dovrei confrontarli? La barilla?
amd ha speso male.... tutti professori con il senno di poi....
mi domanderei piu' che altro quanto ha speso? E quanto hanno speso gli altri che hanno fatto bene, soprattutto.
Piedone1113
14-11-2016, 16:43
Ha 4 soc (16nm) console in produzione ed altri fatti su misura per i cinesi in arrivo (con zen).
Contratti da miliardi (soldi sicuri), mica noccioline, dove non serve nulla di più di GCN. (per ora)
Economicamente non credo sia conveniente puntare tutto sulla competizione con nvidia, dove ti serve una GPU con i controcaxxi per convincere i clienti fidelizzati verdi.
Lisa su ha sicuramente le idea chiare, al contrario delle precedente dirigenza...:rolleyes:
Da "fan" AMD non ho che controfirmare quanto hai scritto.
Il mercato ha diversi settori, puntare tutto su dove il tuo concorrente è più forte ( tralasciando le prestazioni, ma guardando solo il mercato) è un suicidio.
Meglio puntare anche ad altri settori (che possono sembrare meno remunerativi, ma che hanno tenuto a galla AMD e prossimamente possono togliere il segno rosso ai bilanci) e magari inventarsene di nuovi piuttosto che sparare le poche cartucce che hai (intese come copertura finanziaria) contro due colossi che hanno una santabarbara a testa.
Magari con vega amd potrebbe fare il colpaccio, oppure proporrà una scheda dal rapporto prezzo-prestazioni migliore di nvidia, ma anche fosse una famiglia di chip che andrebbero il 50% di più delle 1080, allo stesso prezzo, le inerzie di mercato porterebbero a magri risultati finanziari, se AMD giocasse a due soli tavoli.
Gyammy85
14-11-2016, 16:52
Amd, pur non presentando niente per la fascia alta, ha indotto nvidia a lanciare in anticipo la titan pascal (più che altro per far parlare di se) dato che la 1060 è sostanzialmente allineata alla 480 e nei giochi nuovi va meno...la 1050ti è molto lontana rispetto alla 470 nonostante sia uscita dopo...la 1080ti uscirà per inizi 2017 con vega sarà una bella lotta
devil_mcry
14-11-2016, 17:19
si ma amd in confronto alle concorrenti intel/nvidia e' un'aziendina, dategli tregua, pensate sia facile, smaltire debiti, fare ricerca e investire a 360° concorrendo con tali giganti non e' mica cosa semplice, poi con mille difficolta' ed errori, fase congiunturale mica da poco, lasciatela lavorare, si sta' facendo il suo piccolo spazio, magari tra un po' finalmente qualcuno potra' acquistarsi al day one uno sli di 2090ti senza svenarsi
E' un'aziendina?
E' nello stato in cui è solo perché ci si è messa da sola. Ha speso quasi 5 miliardi e mezzo nel 2006 per un'azienda che non ne fatturava nemmeno la metà e che era in passivo di 40 milioni nell'anno precedente.
Ha acquistato nel 2012 SeaMicro per 340milioni di dollari quasi per entrare a gamba tesa nel mercato dei server e nel 2015 chiude tutte le attività in merito
Un'azienda in crisi (come lo era AMD nel 2012) può permettersi di comprare un'azienda e chiuderla nel giro di due anni? Magari qualche azienda economicamente forte per acquisire brevetti, non certo AMD che è in passivo da diversi anni.
E non bisogna essere poi dei maghi della finanza per capire questo. Senza considerare che ATI (anche sotto AMD) ha fatto cartello con nVidia sui prezzi fino al 2008 mi pare, dopo che le hanno beccate tutte e tre con le mani nella marmellata (nVidia/AMD/ATI) ATI ha perso ancora più valore perché in quegli anni nVidia aveva il G80 e derivati mi pare, che erano inarrivabile (infatti è stato un rebrand folle per anni) fino a quando nella seconda metà non sono uscite le HD4800
devil_mcry
14-11-2016, 17:20
Amd, pur non presentando niente per la fascia alta, ha indotto nvidia a lanciare in anticipo la titan pascal (più che altro per far parlare di se) dato che la 1060 è sostanzialmente allineata alla 480 e nei giochi nuovi va meno...la 1050ti è molto lontana rispetto alla 470 nonostante sia uscita dopo...la 1080ti uscirà per inizi 2017 con vega sarà una bella lotta
Non ha indotto nulla, nVidia continua il suo rollup solamente perché nel 2017 esce la seconda generazione di Pascal, la serie 2000. Altrimenti ste schede non le avrebbe più vendute.
E' un'aziendina?
E' nello stato in cui è solo perché ci si è messa da sola. Ha speso quasi 5 miliardi e mezzo nel 2006 per un'azienda che non ne fatturava nemmeno la metà e che era in passivo di 40 milioni nell'anno precedente.
Ha acquistato nel 2012 SeaMicro per 340milioni di dollari quasi per entrare a gamba tesa nel mercato dei server e nel 2015 chiude tutte le attività in merito
Un'azienda in crisi (come lo era AMD nel 2012) può permettersi di comprare un'azienda e chiuderla nel giro di due anni? Magari qualche azienda economicamente forte per acquisire brevetti, non certo AMD che è in passivo da diversi anni.
E non bisogna essere poi dei maghi della finanza per capire questo. Senza considerare che ATI (anche sotto AMD) ha fatto cartello con nVidia sui prezzi fino al 2008 mi pare, dopo che le hanno beccate tutte e tre con le mani nella marmellata (nVidia/AMD/ATI) ATI ha perso ancora più valore perché in quegli anni nVidia aveva il G80 e derivati mi pare, che erano inarrivabile (infatti è stato un rebrand folle per anni) fino a quando nella seconda metà non sono uscite le HD4800
E' un'aziendina, dal punto di vista delle divisioni, rispetto ai competitor lo e', e lo e' sempre stata in passato, con tutto cio' che ne deriva, in primis ricerca e marketing.
Scelte sbagliate? A voglia, pero' ripeto a parlare con il senno di poi siamo tutti bravi, e a semplificare all'ennesima potenza non ci vuole nulla, la realta' e' che le cose sono molto piu' complicate, le scelte, soprattutto a livello strategico e tattico avvengono influenzate da una miriade di fattori che volerli semplificare mi pare molto superficiale, a questo punto se e' cosi' semplice mi chiedo certe persone perche' perdono tempo ancora a scrivere su hwu invece di sbancare wallstreet....
E' un'aziendina, dal punto di vista delle divisioni, rispetto ai competitor lo e', e lo e' sempre stata in passato, con tutto cio' che ne deriva, in primis ricerca e marketing.
Scelte sbagliate? A voglia, pero' ripeto a parlare con il senno di poi siamo tutti bravi, e a semplificare all'ennesima potenza non ci vuole nulla, la realta' e' che le cose sono molto piu' complicate, le scelte, soprattutto a livello strategico e tattico avvengono influenzate da una miriade di fattori che volerli semplificare mi pare molto superficiale, a questo punto se e' cosi' semplice mi chiedo certe persone perche' perdono tempo ancora a scrivere su hwu invece di sbancare wallstreet....
Da incorniciare. Arrivo a casa lo stampo e metto in quadretto in camera.
Inviato dal mio LG-D802 utilizzando Tapatalk
Da "fan" AMD non ho che controfirmare quanto hai scritto.
Il mercato ha diversi settori, puntare tutto su dove il tuo concorrente è più forte ( tralasciando le prestazioni, ma guardando solo il mercato) è un suicidio.
Meglio puntare anche ad altri settori (che possono sembrare meno remunerativi, ma che hanno tenuto a galla AMD e prossimamente possono togliere il segno rosso ai bilanci) e magari inventarsene di nuovi piuttosto che sparare le poche cartucce che hai (intese come copertura finanziaria) contro due colossi che hanno una santabarbara a testa.
Magari con vega amd potrebbe fare il colpaccio, oppure proporrà una scheda dal rapporto prezzo-prestazioni migliore di nvidia, ma anche fosse una famiglia di chip che andrebbero il 50% di più delle 1080, allo stesso prezzo, le inerzie di mercato porterebbero a magri risultati finanziari, se AMD giocasse a due soli tavoli.
Purtroppo bisogna farsene una ragione.
Con GCN e HBM2 non puoi fare una battaglia dei prezzi contro nvidia.
I chip di nvidia sono più piccoli per via del clock(architettura) ed usano memorie economiche, hanno molto più margine di manovra.
Io non credo in un cambio radicale di architettura con Vega. Spero di sbagliarmi.
E' un'aziendina?
E' nello stato in cui è solo perché ci si è messa da sola. Ha speso quasi 5 miliardi e mezzo nel 2006 per un'azienda che non ne fatturava nemmeno la metà e che era in passivo di 40 milioni nell'anno precedente.
Ha acquistato nel 2012 SeaMicro per 340milioni di dollari quasi per entrare a gamba tesa nel mercato dei server e nel 2015 chiude tutte le attività in merito
Un'azienda in crisi (come lo era AMD nel 2012) può permettersi di comprare un'azienda e chiuderla nel giro di due anni? Magari qualche azienda economicamente forte per acquisire brevetti, non certo AMD che è in passivo da diversi anni.
E non bisogna essere poi dei maghi della finanza per capire questo. Senza considerare che ATI (anche sotto AMD) ha fatto cartello con nVidia sui prezzi fino al 2008 mi pare, dopo che le hanno beccate tutte e tre con le mani nella marmellata (nVidia/AMD/ATI) ATI ha perso ancora più valore perché in quegli anni nVidia aveva il G80 e derivati mi pare, che erano inarrivabile (infatti è stato un rebrand folle per anni) fino a quando nella seconda metà non sono uscite le HD4800
Concordo, fortuna che non sono il solo...:sofico:
Scusa quali altri competitor ha? Almeno quelli relativi al core business sono questi, con quali altri dovrei confrontarli? La barilla?
amd ha speso male.... tutti professori con il senno di poi....
mi domanderei piu' che altro quanto ha speso? E quanto hanno speso gli altri che hanno fatto bene, soprattutto.
Sei tu che hai accostato nvidia ad intel, quando in realtà è semplicemente un aziendina :D "storicamente" più piccola di AMD che ha saputo giocare bene le sue carte (con flop tegra/ALI annessi).
Non c'è nessun professore, gli errori di AMD sono stati macroscopici ed infatti hanno cambiato dirigenza di continuo con un fare/disfare che ha aggravato la situazione.
Se non vuoi vedere l'ovvio fatti tuoi...;) (passo e chiudo)
Concordo.
Sei tu che hai accostato nvidia ad intel, quando in realtà è semplicemente un aziendina :D storicamente più piccola di AMD che ha saputo giocare bene le sue carte (con flop tegra/ALI annessi).
Non c'è nessun professore, gli errori di AMD sono stati macroscopici ed infatti hanno cambiato dirigenza di continuo con un fare/disfare che ha aggravato la situazione.
Se non vuoi vedere l'ovvio fatti tuoi...;) (passo e chiudo)
La divisione CPU di amd e' sempre stata minuscola rispetto al diretto ed unico competitor INTEL.
Senza voler tornare indietro di eoni, negli anni piu' recenti, la divisione GPU amd e' stata minuscola rispetto ad nvidia.
Sulle colpe e i pregi ci mancherebbe, ognuno ha i suoi, non voglio certo negare quello che e' successo, pero' ripeto e' facile parlare su un forum...
Quello che mi dovresti spiegare, e' perche' mi volevi raffrontare il fatturato amd con quello nvidia, quando sai bene che il primo contiene diversi prodotti eterogenei a differenza del secondo, scusa ma mi pare un ragionamento un po' "deviato", per cosi' dire.
Free Gordon
14-11-2016, 19:07
AMD ha speso male negli anni il suo budget in R&D, soprattutto sul lato CPU dove ha sperperato per due architetture fallimentari commercialmente. Ha buttato più di mezzo miliardo per acquisire seamicro ecc...:doh:
Questa è la cosa più inspiegabile da parte mia negli ultimi anni... :stordita:
Einhander
14-11-2016, 19:13
Nel settore gpu fino alla serie 480 non se la è cavata male, anzi, ti ricordo che ai tempi della 290 era anche superiore alla 780: è stata la politica scellerata adottata con la serie 4 che ha creato un gap spaventoso con la concorrenza, e infatti i dati di vendita lo dimostrano, guarda le azioni nvidia come sono schizzate alle stelle....
E c'era pure più di qualcuno su questo thread che difendeva la politica commerciale adottata da AMD :muro:
E meno male che questi sarebbero gli "utenti scafati" :mbe:
NON CONCORDO ASSOLUTAMENTE.
Il gap mostruoso di cui parli riguarda una ristretta minoranza di persone rispetto alle quali schede dalla 480 in giu' SONO immensamente piu' influenti in termini di numeri e recupero share di millemila top di gamma..Il fatturato non e' tutto, soprattutto se a livello di share stai sparendo come da diversi anni a questa parte, pur avendo partorito gpu che, come hai detto tu, ai tempi avevano signore prestazioni -in realta' anche ora a ben vedere i bech-..
La dimostrazione pratica e' l'aumento del valore delle azioni negli ultimi anni e l'aumento del market share negli ultimi 12 mesi.
Il resto e' fuffa.
Non e' che se hai l'antagonista della 1080 significa che tutti quelli pro-nvidia passano ad ati/amd -fermo restando i costi di sviluppo e produzione dei chip- mentre a quanto ne so le 480 stanno vendendo bene, insieme alle 470 -signora scheda in rapporto al costo/prestazioni-.
Chiaro che a tutti piacerebbe che amd presentasse tutte le varie fasce, ma forse non e' chiaro che non PUO' e non deve adottare la stessa politica di nvidia, sia per i mezzi a disposizione, sia perche' amd deve strappare utenti ad nvidia ed e' piu' facile farlo sulla fascia media e bassa sia per i costi, sia perche' la sua architettura e' molto piu' bilanciata su chip di quelle prestazioni/dimensioni.
Mentre nvidia deve per forza puntare sempre a stupire, perche' il suo market share gia' ce l'ha e l'unico, vero, modo che ha per farlo e' con la fascia alta...dubito che chi avesse una 970 sia passato alle 1060 sinceramente..
E' un'aziendina, dal punto di vista delle divisioni, rispetto ai competitor lo e', e lo e' sempre stata in passato, con tutto cio' che ne deriva, in primis ricerca e marketing.
Scelte sbagliate? A voglia, pero' ripeto a parlare con il senno di poi siamo tutti bravi, e a semplificare all'ennesima potenza non ci vuole nulla, la realta' e' che le cose sono molto piu' complicate, le scelte, soprattutto a livello strategico e tattico avvengono influenzate da una miriade di fattori che volerli semplificare mi pare molto superficiale, a questo punto se e' cosi' semplice mi chiedo certe persone perche' perdono tempo ancora a scrivere su hwu invece di sbancare wallstreet....
L'aziendina fattura piu di Fininvest e Pirelli, tanto per far capire le dimensioni.....
Free Gordon
14-11-2016, 19:25
Diciamo che l'unico dirigente AMD..da eoni...che pare avere le idee giuste e la forza di imporle, è proprio l'attuale CEO Lisa Su.
Speriamo che la sua politica dia frutto...e che permetta ad AMD di sopravvivere come entità a sé stante.. :)
Certo è che se si trova in questa situazione, il 90% è colpa della vecchia dirigenza...da Ruiz a Meyer soprattutto (che ricordo ha lasciato a metà del 2011...quindi 5 anni fà).
Il più grave e quasi eterno :( errore è stato BD, senza dubbio. Si sono f@tutti tutto il grosso dei guadagni con BD.
Lato GPU hanno fatto una sola vera cazz.ata con R600, ma è stato proprio il periodo di acquisizione quello. Quindi stravolgimenti, gente che va' gente che viene ecc..
Già la 3870 era una buona GPU, mentre la 4870 fu' un'ottima GPU. :)
Stesso dicasi per tutte le GCN. Ora, a distanza di anni, non si può dire che sia stata un'architettura fallimentare, anzi... :)
Secondo voi è il momento giusto per investire in titoli automobilistici, o meglio continuare sulle materie prime?
Sent from my HTC One M9 using Tapatalk
Banche brasiliane ;) ;) ;)
Mi raccomando, solo quelle PRIVATE. :asd:
Free Gordon
14-11-2016, 19:42
Banche brasiliane ;) ;) ;)
Mi raccomando, solo quelle PRIVATE. :asd:
Quelle che verranno salvate?? :asd:
L'aziendina fattura piu di Fininvest e Pirelli, tanto per far capire le dimensioni.....
http://i0.kym-cdn.com/photos/images/original/000/335/554/cce.png
Peró ragazzi tutti MANAGER affermati qua.
Come se quelli di AMD fossero tutti idioti.
Non vi balena per la testa che dietro certe scelte (che a noi possono sembrare stupide ed errate), ci siano precisi motivi magari a noi non noti?
Inviato dal mio GT-I9505 utilizzando Tapatalk
Quelle che verranno salvate?? :asd:
Le banche private stanno battendo record su record di lucro e fatturato...ci sguazzano con i tassi di interessi attuali.
Quelle pubbliche, per ovvi motivi, vanno di male in peggio per cercare di tenere a galla il paese.
Le banche private stanno battendo record su record di lucro e fatturato...ci sguazzano con i tassi di interessi attuali.
Quelle pubbliche, per ovvi motivi, vanno di male in peggio per cercare di tenere a galla il paese.
nein
sei rimasto indietro.....al massimo di divide fra banche istituzionali e commerciali....ma anche qui non c'è più differenza salvo qualche eccezione.....le private stanno affogando in una melma di npl dovuti a una economia stagnante da carenza di domanda aggregata e con una redditività che si va sempre più assotigliando tanto più gli interessi interbancari viaggiano al ridosso dello 0 se non sotto......ragà così nun se va avanti, mortacci vado a comprà azioni dela envidia che spostati
scusate l'ot ma dovete pure svegliarvi dai fumi nerd :O :O adesso lancio bf1, si torna nel 18!!! :asd:
nein
sei rimasto indietro.....al massimo di divide fra banche istituzionali e commerciali....ma anche qui non c'è più differenza salvo qualche eccezione.....le private stanno affogando in una melma di npl dovuti a una economia stagnante da carenza di domanda aggregata e con una redditività che si va sempre più assotigliando tanto più gli interessi interbancari viaggiano al ridosso dello 0 se non sotto......ragà così nun se va avanti, mortacci vado a comprà azioni dela envidia che spostati
scusate l'ot ma dovete pure svegliarvi dai fumi nerd :O :O adesso lancio bf1, si torna nel 18!!! :asd:
Sto parlando di banche brasiliane...ad esempio ITAU ha registrato un +30% nell' ultimo anno, ed ogni anno danno agli azionisti 1/3 del (mega) lucro.
Idem BRADESCO, anche se non so quanto danno agli azionisti (minimo 1/4 comunque).
Comunque meglio tornare IT, anche se di novità nemmeno l'ombra :asd:
kira@zero
14-11-2016, 21:09
Sui nuovi cipponi ancora niente alle porte?
le ultime dicevano vega in versione firepro a fine anno e q1 17 la version desktoppe
cmq la vera attesa è per zen e qui faccio davvero gli scongiuri (come tutti)
HadesSaint
14-11-2016, 22:47
senza che vado nel thread apposito..cosa sappiamo ora di ZEN?
http://i0.kym-cdn.com/photos/images/original/000/335/554/cce.png
Illuminami su quale scorrettezza o stpidaggine c'e nella mia affermazione, grazie.....
Inviato dal mio XT1092 utilizzando Tapatalk
Peró ragazzi tutti MANAGER affermati qua.
Come se quelli di AMD fossero tutti idioti.
Non vi balena per la testa che dietro certe scelte (che a noi possono sembrare stupide ed errate), ci siano precisi motivi magari a noi non noti?
Inviato dal mio GT-I9505 utilizzando Tapatalk
*
Tutti allenatori, tutti dirigenti, tutti primi ministri...
Mister D
14-11-2016, 23:49
L'aziendina fattura piu di Fininvest e Pirelli, tanto per far capire le dimensioni.....
Da dove li prendi te i numeri?
AMD 2015 fatturato 3,99 miliardi
Pirelli 2015 fatturato 6,31 miliardi
Fininvest 2015 fatturato 4,74 miliardi.
E al di là dei numeri come cavolo fai a confrontare una azienda di cpu/gpu vs gomme vs finanza/televisioni/editoria?
Poi hai visto il numero di dipendenti? Meno di 10k per amd, più di 15k per Fininvest e più di 35k per Pirelli. Giusto per capire le dimensioni :asd:
fraussantin
15-11-2016, 05:45
*
Tutti allenatori, tutti dirigenti, tutti primi ministri...
Quando un allenatore , un presidente o un dirigente fa una cazzata chiunque può accorgersene.( anche lui stesso)
Questo non significa che chiunque non avrebbe fatto di peggio.
Altrimenti è come quando prendi l'ultimo in classifica e dici " non è buono" quando cmq è il peggiore tra i migliori.
Da dove li prendi te i numeri?
AMD 2015 fatturato 3,99 miliardi
Pirelli 2015 fatturato 6,31 miliardi
Fininvest 2015 fatturato 4,74 miliardi.
E al di là dei numeri come cavolo fai a confrontare una azienda di cpu/gpu vs gomme vs finanza/televisioni/editoria?
Poi hai visto il numero di dipendenti? Meno di 10k per amd, più di 15k per Fininvest e più di 35k per Pirelli. Giusto per capire le dimensioni :asd:
infatti le dimensioni aziendali sono determinate dal numero di dipendenti, non dal fatturato.
Ma a parte questo si vuole far passare come amd GPU = Nvidia, solo perche' amd corporate ha un fatturato della stessa dimensione a quello nvidia, veramente c'e' gente che non sa dove attaccarsi giusto per spalare un po' di letame gratuito.
Nvidia il 2015 ha speso in R&D 1.36b, amd 937M, gli assets totali per nvidia nel 2015 sono stati di 5.77B per amd poco piu' della meta', e mi riferisco a AMD CORPORATE
AceGranger
15-11-2016, 09:09
Questa è la cosa più inspiegabile da parte mia negli ultimi anni... :stordita:
hanno tentato, malamente, di entrare nel mercato microserver acquistando SeaMicro che faceva "gioiellini" ad alta densita con Atom e Core a bassi consumi; hanno provato a rifilare la loro paccotiglia Piledriver dentro li ma nessuno se li è cag@ti e alla fine continuavano a vendere solo sistemi Intel, e visto che come situazione era abbastanza ridicola :asd:, alla fine hanno chiuso con una bella perdita netta :fagiano:
Non ho capito che serie intendi...il refresh 3xx? O le fury?
No, intendevo dire le 480 rx
Quello che fa paura è che nVidia ha fatto il botto con Pascal, vendendo un sacco. A dimostrazione che i guadagni non si fanno solo sulla fascia mainstream...Pascal ha venduto bene su TUTTA la linea. AMD?
Boh, io spero che si smuova qualcosa seriamente...e in fretta.
E quando lo dicevo io che i soldoni li fanno proprio grazie alle top (sia per i margini, sia per l'immagine) tutti a darmi del matto docendo che invece il guadagno è nella fascia mainstream... sisi, come no:muro:
si può sbagliare nella vita :D
comunque non esiste solo la fascia alta desktop, nel senso proprio nel mondo dei PC, ed amd ha in ballo molti progetti.
certo è che chi vuole la gpu top se la prende in saccoccia e sgancia purtroppo :O
Tu infatti eri proprio uno di quelli, ma ammiro comunque chi riconosce i suoi errori, anche se ce ne hai impiegato di tempo eh ... :)
Soulbringer
15-11-2016, 12:38
No, intendevo dire le 480 rx
Si, il solito discorso trito e ritrito: la 480 non è una brutta scheda è che manca la fascia sopra da troppo tempo.
E quando lo dicevo io che i soldoni li fanno proprio grazie alle top (sia per i margini, sia per l'immagine) tutti a darmi del matto docendo che invece il guadagno è nella fascia mainstream... sisi, come no:muro:
Sono d'accordo.
fraussantin
15-11-2016, 12:44
E quando lo dicevo io che i soldoni li fanno proprio grazie alle top (sia per i margini, sia per l'immagine) tutti a darmi del matto docendo che invece il guadagno è nella fascia mainstream... sisi, come no:muro:
Esatto.
E cmq non solo per i margini , ma anche per i volumi che cmq ( dalla x70 in su) sono importanti.
Certo poi la titan è una perdita di tempo, ma mica c'è solo quella ..
Esatto.
E cmq non solo per i margini , ma anche per i volumi che cmq ( dalla x70 in su) sono importanti.
Certo poi la titan è una perdita di tempo, ma mica c'è solo quella ..
La Titan non è una perdita di tempo, è una dimostrazione di capacità tecnica: è nvidia che dice al mercato "questo lo so fare solo io".
Lo sa beneissimo che non farà certo numeri, così come non fa numeri LaFerrari, ma è un riferimento, uno schiaffo alla concorrenza.
Così non fai fatturato, ma crei blasone, e il blasone ti permette di vendere con margini migliori: questo è il mercato.
Soulbringer
15-11-2016, 12:55
La Titan non è una perdita di tempo, è una dimostrazione di capacità tecnica: è nvidia che dice al mercato "questo lo so fare solo io".
Lo sa beneissimo che non farà certo numeri, così come non fa numeri LaFerrari, ma è un riferimento, uno schiaffo alla concorrenza.
Così non fai fatturato, ma crei blasone, e il blasone ti permette di vendere con margini migliori: questo è il mercato.
Esatto, proprio il motivo per cui, nell'immaginario comune, una Ferrari rappresenta il TOP. Stessa cosa con la Titan...chi si immagina un PC coi controcaxxi immagina subito nVidia + Intel. Questa cosa non va ben per AMD, proprio per nulla.
Si, il solito discorso trito e ritrito: la 480 non è una brutta scheda è che manca la fascia sopra da troppo tempo.
Sono d'accordo.
E beh, hai detto mica poco eh
Esatto, proprio il motivo per cui, nell'immaginario comune, una Ferrari rappresenta il TOP. Stessa cosa con la Titan...chi si immagina un PC coi controcaxxi immagina subito nVidia + Intel. Questa cosa non va ben per AMD, proprio per nulla.
Se AMD ad oggi sul mercato ha l'immagine che ha (di seconda scelta, qualunque cosa faccia) deve solo ringraziare se stessa e le sue scellerate politiche commerciali, che negli anni hanno permesso a nvidia (che in origine era ben più piccola) di arivare a mangiarle letteralmente in testa.
E ormai è già un miracolo se riesce ancora a fare la seconda, per come va avanti :muro:
Se AMD ad oggi sul mercato ha l'immagine che ha (di seconda scelta, qualunque cosa faccia) deve solo ringraziare se stessa e le sue scellerate politiche commerciali, che negli anni hanno permesso a nvidia (che in origine era ben più piccola) di arivare a mangiarle letteralmente in testa.
E ormai è già un miracolo se riesce ancora a fare la seconda, per come va avanti :muro:
Con la 480 ha fatto un buon lavoro no?
Vediamo come sarà la 490 o Vega che dir si voglia.
Poi giudicheremo se ha fatto bene o male a non avere una top di gamma recente per tot mesi.
La Fury-x mi pare se la cavi ancora bene.
Soulbringer
15-11-2016, 13:13
Con la 480 ha fatto un buon lavoro no?
Vediamo come sarà la 490 o Vega che dir si voglia.
Poi giudicheremo se ha fatto bene o male a non avere una top di gamma recente per tot mesi.
La Fury-x mi pare se la cavi ancora bene.
Si ma dipende quando arriva. E poi scusa eh, ma a sentire sta Fury X come offerta top, veramente non ce la faccio più. Si ok, in alcuni bench è migliorata, non è una scheda da cambiare adesso per chi ce l'ha ma, onestamente, chi la comprerebbe ADESSO? Voi la comprereste? Forse forse a 300€, altrimenti, al di là delle performance più o meno buone, è una scheda MORTA come vendite.
Quanto dista in prestazioni una Fury-x da una 1070?
Inviato dal mio GT-I9505 utilizzando Tapatalk
fraussantin
15-11-2016, 13:18
La Titan non è una perdita di tempo, è una dimostrazione di capacità tecnica: è nvidia che dice al mercato "questo lo so fare solo io".
Lo sa beneissimo che non farà certo numeri, così come non fa numeri LaFerrari, ma è un riferimento, uno schiaffo alla concorrenza.
Così non fai fatturato, ma crei blasone, e il blasone ti permette di vendere con margini migliori: questo è il mercato.
ci sono auto nettamente superiori alla ferrari sia come prestazioni che come prezzo . per non parlare della qualità dei materiali usati .
quello che rende esclusiva la ferrari è il NOME un po come la apple non di certo la qualità o la potenza.
se amd non ha soldi è inutile che si imbandisca a fare una titan che non venderà mai e non avrà ritorno economico. non ti bastano i soldi buttati nelle fury x?
gli basta fare una 490 490 x competitiva e coprire la fascia di mercato importante che realmente da prestigio.
tornando al mercato dell'auto è come se la skoda facesse una macchina con prezzi e prestazioni paragonabili alla r8 ( sempre in casa loro quindi fattibile senza costi eccessivi ) , farebbero solo ridere.
se invece si decidessero a far belle le loro auto ''vendibili'' abbassando un po i prezzi allora la comprerei pure io.
fraussantin
15-11-2016, 13:19
E ormai è già un miracolo se riesce ancora a fare la seconda, per come va avanti :muro:
seconda su due non è poi così difficile da raggiungere XDXD
Con la 480 ha fatto un buon lavoro no?
Vediamo come sarà la 490 o Vega che dir si voglia.
Poi giudicheremo se ha fatto bene o male a non avere una top di gamma recente per tot mesi.
La Fury-x mi pare se la cavi ancora bene.
Con la politica attuale (non solo la 480) ha permesso a nvidia di realizzare utili mai visti prima: direi che AMD ha fatto proprio un ottimo lavoro, ma per la concorrenza però :muro:
E la Fury lasciala stare per favore, che è una carciofata epica, infatti guarda caso ne hanno vendute 3 in croce :doh:
Gyammy85
15-11-2016, 13:22
Quanto dista in prestazioni una Fury-x da una 1070?
Inviato dal mio GT-I9505 utilizzando Tapatalk
In 4k vanno uguali o meglio la fury x ma ti diranno che tanto a 4k non vanno bene entrambe che va di moda giocare a 1080p a 300 fps ecc.
ci sono auto nettamente superiori alla ferrari sia come prestazioni che come prezzo . per non parlare della qualità dei materiali usati .
quello che rende esclusiva la ferrari è il NOME un po come la apple non di certo la qualità o la potenza.
se amd non ha soldi è inutile che si imbandisca a fare una titan che non venderà mai e non avrà ritorno economico. non ti bastano i soldi buttati nelle fury x?
gli basta fare una 490 490 x competitiva e coprire la fascia di mercato importante che realmente da prestigio.
tornando al mercato dell'auto è come se la skoda facesse una macchina con prezzi e prestazioni paragonabili alla r8 ( sempre in casa loro quindi fattibile senza costi eccessivi ) , farebbero solo ridere.
se invece si decidessero a far belle le loro auto ''vendibili'' abbassando un po i prezzi allora la comprerei pure io.
Skoda è partita come Skoda ed è rimasta Skoda; AMD è partita come Ferrari ed è finita come la Innocenti: ti pare la stessa cosa?!?:mbe:
fraussantin
15-11-2016, 13:23
In 4k vanno uguali o meglio la fury x ma ti diranno che tanto a 4k non vanno bene entrambe che va di moda giocare a 1080p a 300 fps ecc.
per il 4k ne servono 2 e 4 giga sono inutili . ( per i 60 fps)
In 4k vanno uguali o meglio la fury x ma ti diranno che tanto a 4k non vanno bene entrambe che va di moda giocare a 1080p a 300 fps ecc.
In 4k vanno male entrambe (con i filtri tirati non ci giochi a FPS decenti), mentre nella fascia per cui sono progettate per lavorare la 1070 è indiscutibilmente più performante: secondo te qual'è il prodotto più riuscito?
E sempre per caso infatti, la 1070 vende come il pane mentre la Fury non se la fila nessuno: sempre coincidenze vero??
A no giusto, è vero, dimenticavo il marketing :doh:
Soulbringer
15-11-2016, 13:27
Quanto dista in prestazioni una Fury-x da una 1070?
Inviato dal mio GT-I9505 utilizzando Tapatalk
La 1070 costa meno seppur sovraprezzata ed è una scheda meglio bilanciata di quel mattone della furyx. Tutto imho.
aled1974
15-11-2016, 13:29
@ fraussantin
però non ha tutti i torti dai ;)
la Ferrari il nome se l'è pur fatto in qualche modo, non di certo con il presenzialismo di Enzo Ferrari :D
insomma ok la pubblicità, l'apparenza eccetera ma il nome quando te lo fai lo fai più che altro sulle prestazioni
pensa a Lancia: un'ottima casa che ad un certo punto ha cominciato a fare macchine "anonime", ora se uno pensa ad una macchina da rally di certo non pensa a Lancia come primo nome, a meno che non sia un nostalgico delle Gruppo A/B
ma nessuno oggi si compra una Matrox per giocare solo perchè vent'anni fa fece le Mystique :D
ciao ciao
Skoda è partita come Skoda ed è rimasta Skoda; AMD è partita come Ferrari ed è finita come la Innocenti: ti pare la stessa cosa?!?:mbe:
Non sono d'accordo.
Se manca una top di gamma (che non é una scheda dove si fanno altissimi numeri di vendita), non é che un produttore divemti scarso.
Le 470/480 sono ottime.
Inoltre mi pare che lato driver AMD dia diventata la Ferrari, e nvidia l'Innocenti visti i casini degli ultimi tempi.
Per non parlare di EVGA che con le ultime gpu nvidia ha fatto di quei pasticci...
Se succedeva ad AMD una cosa del genere, apriti cielo.
Resta il fatto che le cose si sono ribaltate, ad oggi mi danno molto piú fiducia i driver AMD di quelli nvidia.
Le 470/480 continuano a migliorare (ed anche le 290/390 per esempio).
E non dimentichiamoci il fattore prezzo.
Prestazionalmente parlando, specialmente in certi giochi, non mi pare che ina buona 480 sia cosí lontana da una 1070...
fraussantin
15-11-2016, 13:33
@ fraussantin
però non ha tutti i torti dai ;)
la Ferrari il nome se l'è pur fatto in qualche modo, non di certo con il presenzialismo di Enzo Ferrari :D
insomma ok la pubblicità, l'apparenza eccetera ma il nome quando te lo fai lo fai più che altro sulle prestazioni
pensa a Lancia: un'ottima casa che ad un certo punto ha cominciato a fare macchine "anonime", ora se uno pensa ad una macchina da rally di certo non pensa a Lancia come primo nome, a meno che non sia un nostalgico delle Gruppo A/B
ma nessuno oggi si compra una Matrox per giocare solo perchè vent'anni fa fece le Mystique :D
ciao ciao
la ferrari si è fatta un nome perchè faceva auto sportive quando non le faceva quasi nessuno , e perchè bisognava ( forse anche adesso ) raccomandarsi per averne una .
pure se avevi i soldi , non te la vendevano .
ati era la ferrari , amd è la fiat che l'ha comprata.
Soulbringer
15-11-2016, 13:33
Non sono d'accordo.
Se manca una top di gamma (che non é una scheda dove si fanno altissimi numeri di vendita), non é che un produttore divemti scarso.
Le 470/480 sono ottime.
Inoltre mi pare che lato driver AMD dia diventata la Ferrari, e nvidia l'Innocenti visti i casini degli ultimi tempi.
Per non parlare di EVGA che con le ultime gpu nvidia ha fatto di quei pasticci...
Se succedeva ad AMD una cosa del genere, apriti cielo.
Resta il fatto che le cose si sono ribaltate, ad oggi mi danno molto piú fiducia i driver AMD di quelli nvidia.
Le 470/480 continuano a migliorare (ed anche le 290/390 per esempio).
E non dimentichiamoci il fattore prezzo.
Prestazionalmente parlando, specialmente in certi giochi, non mi pare che ina buona 480 sia cosí lontana da una 1070...
Ricordiamo che anche lato CPU la storia è iniziata così...AMD ha iniziato a competere solo sulle fasce più basse. Non è un buon segno.
Lato driver hai ragione, per ora mi sembra vada meglio di nVidia ma ha il grosso vantaggio di avere da anni la stessa architettura, architettura che però, proprio adesso, la sta limitando molto con le nuove generazioni.
La 480 non va di certo come una 1070 dai, non giriamoci intorno: sono due schede di due diversi livelli.
Non sono d'accordo.
Se manca una top di gamma (che non é una scheda dove si fanno altissimi numeri di vendita), non é che un produttore divemti scarso.
Le 470/480 sono ottime.
Inoltre mi pare che lato driver AMD dia diventata la Ferrari, e nvidia l'Innocenti visti i casini degli ultimi tempi.
Per non parlare di EVGA che con le ultime gpu nvidia ha fatto di quei pasticci...
Se succedeva ad AMD una cosa del genere, apriti cielo.
Resta il fatto che le cose si sono ribaltate, ad oggi mi danno molto piú fiducia i driver AMD di quelli nvidia.
Le 470/480 continuano a migliorare (ed anche le 290/390 per esempio).
E non dimentichiamoci il fattore prezzo.
Prestazionalmente parlando, specialmente in certi giochi, non mi pare che ina buona 480 sia cosí lontana da una 1070...
Continui a non capire che il problema non è la 480, ma l'intera politica aziendale che fa acqua da tutte le parti (e non certo da ieri): per come procedono mi stupisce che esistano ancora sul mercato, e infatti guarda caso è anni che sono con l'acqua alla gola.
Su questo avevo giá risposto. Aspettiamo che esca Vega e giudichiamo se il ritardo é giustificabile o meno.
Io penso di no, in quanto cambia l'idea base costruttiva.
Ricordiamoci che anche le 1070/1080 sono relativamente schede "vecchie" e cioé 980 pompate.
Inviato dal mio GT-I9505 utilizzando Tapatalk
Non sono d'accordo.
Se manca una top di gamma (che non é una scheda dove si fanno altissimi numeri di vendita), non é che un produttore divemti scarso.
Le 470/480 sono ottime.
Inoltre mi pare che lato driver AMD dia diventata la Ferrari, e nvidia l'Innocenti visti i casini degli ultimi tempi.
Per non parlare di EVGA che con le ultime gpu nvidia ha fatto di quei pasticci...
Se succedeva ad AMD una cosa del genere, apriti cielo.
Resta il fatto che le cose si sono ribaltate, ad oggi mi danno molto piú fiducia i driver AMD di quelli nvidia.
Le 470/480 continuano a migliorare (ed anche le 290/390 per esempio).
E non dimentichiamoci il fattore prezzo.
Prestazionalmente parlando, specialmente in certi giochi, non mi pare che ina buona 480 sia cosí lontana da una 1070...
Osannate tanto sapphire, ma veramente ha fatto bei casino, basti leggere il thread delle 7870. Ma molti si sono svegliati alla fine della serie 2 e non conoscono le problematiche avute con la serie 7, tra cui appunto problemi di componentistica avuti da sapphire, che sembrava mandasse delle vga fatte con il pongo.
Sapphire ad evga non gli lustra manco le scarpe, soprattutto fattore assistenza garanzia.
Io non lo porterei come argomento in un dibattito.
Spizzicare qua e là non produce autorevolezza.
Se manca una top gamma, fa sì che il produttore abbia meno visibilità, meno scelta, che rischia di limitare le vendite anche delle altre fasce.
Su questo avevo giá risposto. Aspettiamo che esca Vega e giudichiamo se il ritardo é giustificabile o meno.
Io penso di no, in quanto cambia l'idea base costruttiva.
Ricordiamoci che anche le 1070/1080 sono relativamente schede "vecchie" e cioé 980 pompate.
Inviato dal mio GT-I9505 utilizzando Tapatalk
Non ho ancora capito se lo fai apposta o davvero non capisci.
Quand'anche Vega doppiasse prestazionalmente nvidia (cosa che non avverrà mai), cosa pensi che cambierebbe ormai?
Con questa bella politica commerciale AMD ha regalato a nvidia un anno di ricavi mirabolanti e di ulteriore immagine da Top, e questo non lo cambi più.
E non credere che se domattina AMD uscisse con una vga competitiva nvidia rimarrebbe a guardare come invece ha fatto AMD sai
aled1974
15-11-2016, 13:46
la ferrari si è fatta un nome perchè faceva auto sportive quando non le faceva quasi nessuno , e perchè bisognava ( forse anche adesso ) raccomandarsi per averne una .
pure se avevi i soldi , non te la vendevano .
ati era la ferrari , amd è la fiat che l'ha comprata.
perdonami dissento, non si è fatta certo un nome per una sorta di esclusività elitaria e la decisione di venderla a te e non a me a parità di pecunia sul tavolo :mano:
amd se vuole vendere deve convincere
non a suon di slide, festini o altro, ma con prodotti che vanno più della concorrenza o che a parità costino molto meno :read:
in quanto ai driver, condivido il pensiero di Pelvix, anche a me danno più fiducia quelli recenti amd
o per meglio dire nvidia mi da una gran brutta impressione da diversi anni: driver, saldature, vram, costi, politiche, gfxp eccetera
my 2 cents :mano:
ciao ciao
Non ho ancora capito se lo fai apposta o davvero non capisci.
Quand'anche Vega doppiasse prestazionalmente nvidia (cosa che non avverrà mai), cosa pensi che cambierebbe ormai?
Con questa bella politica commerciale AMD ha regalato a nvidia un anno di ricavi mirabolanti e di ulteriore immagine da Top, e questo non lo cambi più.
E non credere che se domattina AMD uscisse con una vga competitiva nvidia rimarrebbe a guardare come invece ha fatto AMD sai
Esatto, il problema grosso è che se amd fa il miracolo, nvidia è sicuro che risponda, magari proponendo chip che sarebbero stati commercializzati se amd fosse stata pericolosa con polaris.
Ma come ho detto, fino a che le prestazioni sono bene o male allineate, continuano a proporre prodotti con un minimo surplus prestazionale.
Interessante.....molto interessante..................:rolleyes:
siamo tornati a sei mesi fa, un anno fa, due anni fa, tre anni fa....amd è morta!!!! domani fallisce, mannaggia a loro mi devo comprare una nvidiaaaaaaaaaaa
Io accendo il pc e faccio partire il gioco, vi lascio il resto! Ai miei tempi le pippe si facevano in bagno, non nei forum....eh, l'età!
Interessante.....molto interessante..................:rolleyes:
siamo tornati a sei mesi fa, un anno fa, due anni fa, tre anni fa....amd è morta!!!! domani fallisce, mannaggia a loro mi devo comprare una nvidiaaaaaaaaaaa
Io accendo il pc e faccio partire il gioco, vi lascio il resto! Ai miei tempi le pippe si facevano in bagno, non nei forum....eh, l'età!
E tu ancora ed immancabile con la tua tiritera :muro:
Soulbringer
15-11-2016, 14:00
Interessante.....molto interessante..................:rolleyes:
siamo tornati a sei mesi fa, un anno fa, due anni fa, tre anni fa....amd è morta!!!! domani fallisce, mannaggia a loro mi devo comprare una nvidiaaaaaaaaaaa
Io accendo il pc e faccio partire il gioco, vi lascio il resto! Ai miei tempi le pippe si facevano in bagno, non nei forum....eh, l'età!
Ma per piacere...qui nessuno sta affermando che AMD fallisce domani. Si sta dicendo semplicemente la verità, cioè che, di certo, l'azienda non naviga nell'oro, è in una posizione difficile e alcune sue mosse paiono "stupide" viste da fuori.
Poi che per te vada tutto bene, ok, non vogliamo incrinare di certo la tua inflessibile fede in AMD, stai tranquillo.
LurenZ87
15-11-2016, 14:00
Interessante.....molto interessante..................:rolleyes:
siamo tornati a sei mesi fa, un anno fa, due anni fa, tre anni fa....amd è morta!!!! domani fallisce, mannaggia a loro mi devo comprare una nvidiaaaaaaaaaaa
Io accendo il pc e faccio partire il gioco, vi lascio il resto! Ai miei tempi le pippe si facevano in bagno, non nei forum....eh, l'età!
Si ma ha rotto le balle tra gli FX e le Fury.
Nvidia ha fatto già un cambio generazionale ed è passata alla vera top di gamma a 16nm mentre in AMD ancora se la menano con le Polaris (schede ottime, per carità, ma che vende 1vs3 rispetto alle controparti).
Inviato dal mio OnePlus 3 utilizzando Tapatalk
Soulbringer
15-11-2016, 14:05
Riguardo al discorso di Polaris "per riguadagnare quote"...io non capisco come possa riguadagnare quote presentando una famiglia senza la fascia top.
Se con una copertura di fascia completa vendi 100, di sicuro presentando la stessa famiglia senza una fascia vendi < 100...a meno che la 480 non sia molto meglio dell'offerta della concorrenza. Cosa che non mi pare, visto che 480 e 1060, bene o male si equivalgono.
A questo proposito sarebbero da confrontare con la generazione passata, cioè 380 vs 960...che cosa è cambiato? Perché la 480 dovrebbe vendere di più rispetto alla 380 del tempo?
Interessante.....molto interessante..................:rolleyes:
siamo tornati a sei mesi fa, un anno fa, due anni fa, tre anni fa....amd è morta!!!! domani fallisce, mannaggia a loro mi devo comprare una nvidiaaaaaaaaaaa
Io accendo il pc e faccio partire il gioco, vi lascio il resto! Ai miei tempi le pippe si facevano in bagno, non nei forum....eh, l'età!
Hai ragione.
Sempre a dare contro ad AMD.
Ora AMD é uscita con le 470/480 che sono ottime schede (migliori delle 1060 con le quali competono), e con dei signori Driver (a diffetenza degli ultimi di nvidia) ed invece di apprezzare si va a criticare AMD per la mancanza di una top di gamma, dovuta tra l'altro ad un netto cambio costruttivo e di idee.
Poi si leggono recensioni dove una 1060 é piú rumorosa di una 480 ma il rumore é piú gradevole. Tanto per fare un esempio.
E magari c'é pure chi ci crede...
AMD ha fatto Freedync che va come gsync, peccato che quest'ultimo costi, a paritá di monitor, 150/200Euro in piú.
E mai un complimento ad AMD.
Poi vi fate spennare i soldi da nvidia per le 1080 (palesemente sovraprezzate) e date la colpa ad AMD che non ha la top di gamma per i motivi di cui sopra.
Senza calcolare il supporto del prodotto nel tempo, vedi il simpaticissimo discorso legacy.
AMD sta lavorando bene, in tutti i settori (470/480, driver e freesync che é il piú supportato dui monitor).
Ripeto, vedremo che fará con Vega e magari capiremo il motivo del ritardo o presunto tale.
amen tenetevelo voi in ostaggio il thread.... e tra un po' pure tutto il forum....
fraussantin
15-11-2016, 14:16
amd se vuole vendere deve convincere
non a suon di slide, festini o altro, ma con prodotti che vanno più della concorrenza o che a parità costino molto meno :read:
aspè su questo , son d'accordo. 490 490 x al prezzo giusto e si riparte.
guarda asrock per esempio facendo prodotti buoni al giusto prezzo di è aperta un mercato .
inutile cercare il passato di ati . oramai non c' è più da molti anni . adesso deve recuperare e per farlo deve puntare alle fasce che interessano alla gente. ( e non è di certo solamente la 480)
per la ferrari invece siamo in disaccordo. ma è ot.
Legolas84
15-11-2016, 14:29
Hai ragione.
Sempre a dare contro ad AMD.
Ora AMD é uscita con le 470/480 che sono ottime schede (migliori delle 1060 con le quali competono), e con dei signori Driver (a diffetenza degli ultimi di nvidia) ed invece di apprezzare si va a criticare AMD per la mancanza di una top di gamma, dovuta tra l'altro ad un netto cambio costruttivo e di idee.
Poi si leggono recensioni dove una 1060 é piú rumorosa di una 480 ma il rumore é piú gradevole. Tanto per fare un esempio.
E magari c'é pure chi ci crede...
AMD ha fatto Freedync che va come gsync, peccato che quest'ultimo costi, a paritá di monitor, 150/200Euro in piú.
E mai un complimento ad AMD.
Poi vi fate spennare i soldi da nvidia per le 1080 (palesemente sovraprezzate) e date la colpa ad AMD che non ha la top di gamma per i motivi di cui sopra.
Senza calcolare il supporto del prodotto nel tempo, vedi il simpaticissimo discorso legacy.
AMD sta lavorando bene, in tutti i settori (470/480, driver e freesync che é il piú supportato dui monitor).
Ripeto, vedremo che fará con Vega e magari capiremo il motivo del ritardo o presunto tale.
:asd:
È colpa della popolazione mondiale che compra NVIDIA, quando invece se fossero tutti colti e informati dovrebbero comprare una AMD.... :asd:
Fantastico poi che la 480 è pure meglio della 1060 ora.... :D
Fosse vero anche solo l'1% di quello che scrivi ci sarebbe NVIDIA a raschiare il barile....
La verità è che AMD si deve dare una svegliata in TUTTI i settori, oppure è un casino... più che altro perchè se anche riuscisse a sopravvivere con le commesse di Microsoft e Nintendo, sarebbe comunque il mercato PC ad essere fottuto (quello delle CPU già lo è a meno che Zen non sia davvero una rivoluzione, quello delle gpu ormai si sta fottendo).
Legolas84
15-11-2016, 14:36
E aggiungo che secondo me se ATi rimaneva separata col cavolo che la situazione sarebbe diventata questa... ATi le VGA le sapeva fare, magari non benissimo la parte software ma in quella hardware era niente male.
Sono inciampati in R600, cosa che ha contribuito secondo me a fargli accettare l'offerta di AMD (che si è sobbarcata quello che sarebbe stato un vero progetto fallimentare di ATi).....
magnusll
15-11-2016, 14:42
amen tenetevelo voi in ostaggio il thread.... e tra un po' pure tutto il forum....
Come ho gia' scritto nVidia e' sempre piu' simile ad Apple. Ormai si vede anche nel tono delle discussioni, che sono sempre meno razionali e sempre piu' fideistiche. E' una perdita di tempo.
Soulbringer
15-11-2016, 14:46
E aggiungo che secondo me se ATi rimaneva separata col cavolo che la situazione sarebbe diventata questa... ATi le VGA le sapeva fare, magari non benissimo la parte software ma in quella hardware era niente male.
Sono inciampati in R600, cosa che ha contribuito secondo me a fargli accettare l'offerta di AMD (che si è sobbarcata quello che sarebbe stato un vero progetto fallimentare di ATi).....
Da quello che ricordo io r600 è nato male proprio perché a cavallo dell'acquisizione.
fraussantin
15-11-2016, 14:47
Come ho gia' scritto nVidia e' sempre piu' simile ad Apple. Ormai si vede anche nel tono delle discussioni, che sono sempre meno razionali e sempre piu' fideistiche. E' una perdita di tempo.
La.differenza tra apple e Nvidia è che la prima ha dei reali e numerosi concorrenti.
Fantastico poi che la 480 è pure meglio della 1060 ora.... :D
Fosse vero anche solo l'1% di quello che scrivi ci sarebbe NVIDIA a raschiare il barile....
Già :mbe:
nVidia e' sempre piu' simile ad Apple. Ormai si vede anche nel tono delle discussioni, che sono sempre meno razionali e sempre piu' fideistiche.
Legolas84
15-11-2016, 15:03
Da quello che ricordo io r600 è nato male proprio perché a cavallo dell'acquisizione.
R600 è uscito a cavallo dell'acquisizione... quindi era già da un bel pò che ATi ci stava lavorando, e sapeva bene che questa volta non sarebbe riuscita a pareggiare G80...
Da quello che ricordo io r600 è nato male proprio perché a cavallo dell'acquisizione.
R600 è un evoluzione dello Xenos del x360. Cambiano principalmente le istruzione del vliw che passano da 2 a 5.
Con il terascale 2/HD4870 hanno cambiato l'infrastruttura di contorno (bus,scheduler, fixed function etc) vera responsabile delle cattive performance di R600.
Da allora la struttura interna è stata migliorata, ma non rivoluzionata.
Nvidia con femi ha introdotto il sistema gpc/tpc che è tutt'oggi la sua fortuna (scalabilità/consumi), insieme al tile-based compression di maxwell.;)
:asd:
È colpa della popolazione mondiale che compra NVIDIA, quando invece se fossero tutti colti e informati dovrebbero comprare una AMD.... :asd:
Fantastico poi che la 480 è pure meglio della 1060 ora.... :D
Fosse vero anche solo l'1% di quello che scrivi ci sarebbe NVIDIA a raschiare il barile....
La verità è che AMD si deve dare una svegliata in TUTTI i settori, oppure è un casino... più che altro perchè se anche riuscisse a sopravvivere con le commesse di Microsoft e Nintendo, sarebbe comunque il mercato PC ad essere fottuto (quello delle CPU già lo è a meno che Zen non sia davvero una rivoluzione, quello delle gpu ormai si sta fottendo).
La situazione è simile al periodo post G80. Se non sfornano una "nuova" 4870 è inutile sperare nel miracolo. Per farlo di certo non basta GCN rattoppato con le HBM2.
"il muro del pianto" cambiate titolo al thread.
Pianto per i PCisti. :fagiano:
AMD sta serena con i suoi contratti per SOC.
Curioso di vedere quanti paperdollari si intascheranno con i server cinesi..:D
LurenZ87
15-11-2016, 15:48
Pianto per i PCisti. :fagiano:
AMD sta serena con i suoi contratti per SOC.
Curioso di vedere quanti paperdollari si intascheranno con i server cinesi...:)
Una montagna...
Comunque fottesega, io voglio il chippone da +50% in 4K rispetto alla Fury X :asd:
Dajeeee
Inviato dal mio OnePlus 3 utilizzando Tapatalk
fraussantin
15-11-2016, 15:50
Pianto per i PCisti. :fagiano:
AMD sta serena con i suoi contratti per SOC.
Curioso di vedere quanti paperdollari si intascheranno con i server cinesi..:D
Sta serena come lo è stato letta.
Vai raga continuate a scannarvi, qualcosa da fare durante le noiose lezioni di statistica devo trovare. :)
Inviato dal mio LG-D802 utilizzando Tapatalk
Da dove li prendi te i numeri?
AMD 2015 fatturato 3,99 miliardi
Pirelli 2015 fatturato 6,31 miliardi
Fininvest 2015 fatturato 4,74 miliardi.
E al di là dei numeri come cavolo fai a confrontare una azienda di cpu/gpu vs gomme vs finanza/televisioni/editoria?
Poi hai visto il numero di dipendenti? Meno di 10k per amd, più di 15k per Fininvest e più di 35k per Pirelli. Giusto per capire le dimensioni :asd:
Siamo in quell'ordine di dimensioni di fatturato.
infatti le dimensioni aziendali sono determinate dal numero di dipendenti, non dal fatturato.
Ma a parte questo si vuole far passare come amd GPU = Nvidia, solo perche' amd corporate ha un fatturato della stessa dimensione a quello nvidia, veramente c'e' gente che non sa dove attaccarsi giusto per spalare un po' di letame gratuito.
Nvidia il 2015 ha speso in R&D 1.36b, amd 937M, gli assets totali per nvidia nel 2015 sono stati di 5.77B per amd poco piu' della meta', e mi riferisco a AMD CORPORATE
Quindi secondo il vostro ragionamento Poste Italiane che ha 140k dipendenti è "piu grande" di Apple che ne ha 115k? :muro: :muro: :muro:
Peccato che la seconda fatturi quasi sei volte la prima (e abbia un utile di circa 65 volte tanto)
Le aziende si paragonano in base al fatturato, non al numero di dipendenti, visto che questo puo variare in base all'ambito a cui appartengono.
In ogni caso il discorso era per far capire che spesso parliamo di AMD come della AVANZATI MICROPROCESSORI DOMODOSSOLA, ma stiamo parlando di un'azienda, che in termini di fatturato, rientrerebbe tra le prime 15/20 in Italia.
Quindi aecondo alcuni ora pure la 1060 é meglio della 480?
Senza calcolare i 2GB di vram in meno che per comoditá, per qualcuno, non servono a niente...
Peccato che con ultimi driver ed ultimi giochi, laa 480 sembra essere alla pari od in alcuni casi meglio della 1060.
Inviato dal mio GT-I9505 utilizzando Tapatalk
Mister D
15-11-2016, 16:20
Siamo in quell'ordine di dimensioni di fatturato.
Quindi secondo il vostro ragionamento Poste Italiane che ha 140k dipendenti è "piu grande" di Apple che ne ha 115k? :muro: :muro: :muro:
Peccato che la seconda fatturi quasi sei volte la prima (e abbia un utile di circa 65 volte tanto)
Le aziende si paragonano in base al fatturato, non al numero di dipendenti, visto che questo puo variare in base all'ambito a cui appartengono.
In ogni caso il discorso era per far capire che spesso parliamo di AMD come della AVANZATI MICROPROCESSORI DOMODOSSOLA, ma stiamo parlando di un'azienda, che in termini di fatturato, rientrerebbe tra le prime 15/20 in Italia.
No carissimo, almeno per quanto riguarda il sottoscritto che ti ha scritto:
"E al di là dei numeri come cavolo fai a confrontare una azienda di cpu/gpu vs gomme vs finanza/televisioni/editoria?"
Se sai leggere quella frase vuol dire che per me non ha senso confrontare aziende che realizzano prodotti/servizi completamente diversi. Ergo il tuo post in cui confrontavi Pirelli e Fininvest ad AMD per me non ha senso poi dicendo pure che amd fattura di più e ti ho dimostrato che almeno per il 2015 non è stato così; poi più indietro magari può essere anche stato. Per fare un confronto serio per me di devono prendere in esame aziende che lavorano nello stesso ambito o al massimo in ambiti simili e poi il confronto deve essere fatto non solo su fatturato o su numero dipendenti perché è estremamente semplicistico e forviante. Devi prendere tutto, investimenti, debiti, utili, fatturato, numero di dipendenti, numero di sedi, servizi e prodotti offerti, ecc.
E cmq AMD produce principalmente cpu x86 (arm da poco) e gpu ergo i maggiori confronti li puoi fare solo con intel e nvidia e a vedere i numeri balza all'occhio come dei tre la più piccola sia lei, ergo aspettarsi ora, in un momento di difficoltà che perdura da tempo nell'economia generale, comportamenti simili (in termini di velocità a portare sul mercato, in termini di marketing e in qualsiasi altro paragone) agli altri due competitor è semplicemente UTOPICO, almeno a mio modo di vedere.
Tutti si aspettano che amd si comporti come intel e nvidia? Beh mi dispiace, non ne ha le capacità economiche (al momento).
Questa è la mia opinione;)
i mie prof dei vari esami di ecomonia aziendale, e industrale, all'uni, facevano appunto riferimento al numero di dipendenti per i confronti dimensionali.
Ma giustamente qui' e' pieno di professoroni.
Quando un allenatore , un presidente o un dirigente fa una cazzata chiunque può accorgersene.( anche lui stesso)
Questo non significa che chiunque non avrebbe fatto di peggio.
Altrimenti è come quando prendi l'ultimo in classifica e dici " non è buono" quando cmq è il peggiore tra i migliori.
Vedi, la storia non ci dice se la scelta fatta al momento era la migliore, ci dice solamente come è andata a finire.
Se io sono il ceo di un azienda e mi vengono poste delle scelte: a, b e c e a al momento sembra la migliore per tutti non significa non fosse la scelta giusta.
Magari è cambiato il mercato intanto, magari ci sono stati dei problemi di progettazione. O di marketing. O quante altre cose.
Insomma, fare la scelta che sembra la migliore al momento date le informazioni disponibili non implica automaticamente successo per sempre.
Con la politica attuale (non solo la 480) ha permesso a nvidia di realizzare utili mai visti prima: direi che AMD ha fatto proprio un ottimo lavoro, ma per la concorrenza però :muro:
E la Fury lasciala stare per favore, che è una carciofata epica, infatti guarda caso ne hanno vendute 3 in croce :doh:
Io mi chiedo se vivete sulla luna.
Ma lo sapete o no che oggigiorno si vendono la metà delle gpu di 10 anni fa?
http://images.anandtech.com/doci/10613/jpr_q2_2016_mkt_historical_annual_gpu_sales.png
Ne AMD ne Nvidia vendono quanto vendevano una volta, e i costi sono aumentati di anno in anno.
Il 2016 forse sarà il primo anno in cui si venderanno più gpu dell'anno precedente.
Più che altro trovo bizzarro confrontare nvidia ad intel per giustificare la povera AMD( il solito pianto)...:asd:
AMD 4mld (nel 2012 5.x mld)
Nvidia 5mld (nel 2014 4.x mld)
Intel 55mld (12mld r&d:fagiano: )
http://i.ebayimg.com/00/s/OTY4WDcwMQ==/z/wicAAOxypthRphWw/$(KGrHqZ,!qwFGTuj0gMjBRphWwMeO!~~60_35.JPG
:sofico:
Mister D
15-11-2016, 16:41
i mie prof dei vari esami di ecomonia aziendale, e industrale, all'uni, facevano appunto riferimento al numero di dipendenti per i confronti dimensionali.
Ma giustamente qui' e' pieno di professoroni.
Immagino su aziende che lavorano nello stesso core business o anche su aziende che lavorano su business completamente diversi?;)
Mister D
15-11-2016, 16:47
Più che altro trovo bizzarro confrontare nvidia ad intel per giustificare la povera AMD( il solito pianto)...:asd:
AMD 4mld (nel 2012 5.x mld)
Nvidia 5mld (nel 2014 4.x mld)
Intel 55mld (12mld r&d:fagiano: )
http://i.ebayimg.com/00/s/OTY4WDcwMQ==/z/wicAAOxypthRphWw/$(KGrHqZ,!qwFGTuj0gMjBRphWwMeO!~~60_35.JPG
:sofico:
Però chiaramente sorvoli che i dati di amd andrebbero scorporati perché nvidia non produce cpu x86 o soc per le console (ah no vero che ora le produce con cpu arm nonostante quando amd prese le due commesse per xbox e ps4 nvidia stessa dichiarò che per loro non era remunerativo come mercato. Mamma mia, che rosicata. Direi che nel 2016 il premio Rododendro lo vince Nvidia con la produzione di console nintendo asd).
Poi mi piace che per amd prendi il 2012 mentre per nvidia il 2014. Giusto per curiosità quanto faceva nvidia nel 2012?
E' altrettanto bizzarro il tuo modo di confrontare :asd: ah ma dillo che anche tu hai una copia di quel libro oltre il poster del CEO di nvidia e intel in sauna:oink: :sofico:
Però chiaramente sorvoli che i dati di amd andrebbero scorporati perché nvidia non produce cpu x86 o soc per le console (ah no vero che ora le produce con cpu arm nonostante quando amd prese le due commesse per xbox e ps4 nvidia stessa dichiarò che per loro non era remunerativo come mercato. Mamma mia, che rosicata. Direi che nel 2016 il premio Rododendro lo vince Nvidia con la produzione di console nintendo asd).
Poi mi piace che per amd prendi il 2012 mentre per nvidia il 2014. Giusto per curiosità quanto faceva nvidia nel 2012?
E' altrettanto bizzarro il tuo modo di confrontare :asd: ah ma dillo che anche tu hai una copia di quel libro oltre il poster del CEO di nvidia e intel in sauna:oink: :sofico:
Occhio che ti saltano le coronarie...:asd:
Mister D
15-11-2016, 17:04
Occhio che ti saltano le coronarie...:asd:
Le mie coronarie stanno benissimo, sai com'è sono....ROSSE:sofico:
Le mie coronarie stanno benissimo, sai com'è sono....ROSSE:sofico:
Mica solo quelle sono ROSSE! Anche il sangue che ti sta uscendo dal naso...:sofico:
Mister D
15-11-2016, 17:13
Mica solo quelle sono ROSSE! Anche il sangue che ti sta uscendo dal naso...:sofico:
Allora è un problema di egocentrismo il tuo :D Ti lascio volentieri l'ultima battuta così ti senti a posto:sofico:
Allora è un problema di egocentrismo il tuo :D Ti lascio volentieri l'ultima battuta così ti senti a posto:sofico:
Ecco bravo datti una calmata, smettila di rosicare per un pezzo di silicio:D . Non ne vale la pena.;)
Mister D
15-11-2016, 17:22
Ecco bravo datti una calmata, rosicare per un pezzo di silicio non ne vale la pena.;)
Dici a me, sei serio? Guarda che te sei quello delle vignette/battutine o frecciate. Quindi sei uno di quelli che prima tira il sasso e poi ritrae la mano?
Non puoi pretendere che prima posti il "libro delle scuse" e poi che nessuno ti risponda al tuo stesso tono. Andiamo bene:help:
Mister D
15-11-2016, 17:32
MisterD 1 - Ren 0 ...palla al centro
devo mettere l'avatar come Frozen...
ahahah:sofico:
Non ti preoccupare che fra poco mi segna in contropiede:D
Mannag a vedere tutti sti post pensavo fossero uscite delle news.
Inviato dal mio LG-D802 utilizzando Tapatalk
Ale55andr0
15-11-2016, 18:26
Mannag a vedere tutti sti post pensavo fossero uscite delle news.
Inviato dal mio LG-D802 utilizzando Tapatalk
Pure io
No carissimo, almeno per quanto riguarda il sottoscritto che ti ha scritto:
"E al di là dei numeri come cavolo fai a confrontare una azienda di cpu/gpu vs gomme vs finanza/televisioni/editoria?"
Se sai leggere quella frase vuol dire che per me non ha senso confrontare aziende che realizzano prodotti/servizi completamente diversi. Ergo il tuo post in cui confrontavi Pirelli e Fininvest ad AMD per me non ha senso poi dicendo pure che amd fattura di più e ti ho dimostrato che almeno per il 2015 non è stato così; poi più indietro magari può essere anche stato. Per fare un confronto serio per me di devono prendere in esame aziende che lavorano nello stesso ambito o al massimo in ambiti simili e poi il confronto deve essere fatto non solo su fatturato o su numero dipendenti perché è estremamente semplicistico e forviante. Devi prendere tutto, investimenti, debiti, utili, fatturato, numero di dipendenti, numero di sedi, servizi e prodotti offerti, ecc.
E cmq AMD produce principalmente cpu x86 (arm da poco) e gpu ergo i maggiori confronti li puoi fare solo con intel e nvidia e a vedere i numeri balza all'occhio come dei tre la più piccola sia lei, ergo aspettarsi ora, in un momento di difficoltà che perdura da tempo nell'economia generale, comportamenti simili (in termini di velocità a portare sul mercato, in termini di marketing e in qualsiasi altro paragone) agli altri due competitor è semplicemente UTOPICO, almeno a mio modo di vedere.
Tutti si aspettano che amd si comporti come intel e nvidia? Beh mi dispiace, non ne ha le capacità economiche (al momento).
Questa è la mia opinione;)
Te lo sottolineo, il mio non voleva essere un confronto con Intel o Nvidia, volevo dare una dimensione alla realtà AMD, che da come molti parlano, sembra essere l'aziendina dietro casa, piena di nerd brufolosi e sprovveduti alle prime armi che si mettono a vendere pezzi di silicio. NO, NON E' COSI, poi confrontatela con il metro di paragone che vi pare...
Da un'azienda di tali dimensioni ci si aspetta ben altri comportamenti, chiarezza nelle roadmap, puntualità nelle release e coerenza nelle dichiarazioni ecc ecc. Da anni a sta parte sembra che in AMD si vada avanti alla viva il parroco (per quanto con Lisona sia migliorata la situazione), in un momento in cui avrebbe tutte le carte in regola per fare le scarpe alle concorrenti, sia sul lato GPU, dove Nvidia con certe politiche si sta inimicando molti (al netto dei fanboy), che sul lato CPU, dove Intel dorme sugli allori.
E invece no, invece di affondare il colpo, continua a prendere e perdere tempo (vedi Zen che dal 2016 siamo passati, stando agli ultimi rumor, alla commercializzazione nel Q2 2017)
Te lo sottolineo, il mio non voleva essere un confronto con Intel o Nvidia, volevo dare una dimensione alla realtà AMD, che da come molti parlano, sembra essere l'aziendina dietro casa, piena di nerd brufolosi e sprovveduti alle prime armi che si mettono a vendere pezzi di silicio. NO, NON E' COSI, poi confrontatela con il metro di paragone che vi pare...
Da un'azienda di tali dimensioni ci si aspetta ben altri comportamenti, chiarezza nelle roadmap, puntualità nelle release e coerenza nelle dichiarazioni ecc ecc. Da anni a sta parte sembra che in AMD si vada avanti alla viva il parroco (per quanto con Lisona sia migliorata la situazione), in un momento in cui avrebbe tutte le carte in regola per fare le scarpe alle concorrenti, sia sul lato GPU, dove Nvidia con certe politiche si sta inimicando molti (al netto dei fanboy), che sul lato CPU, dove Intel dorme sugli allori.
E invece no, invece di affondare il colpo, continua a prendere e perdere tempo (vedi Zen che dal 2016 siamo passati, stando agli ultimi rumor, alla commercializzazione nel Q2 2017)
questi sono, mi spiace dirlo, discorsi da baretto, le dinamiche di un'azienda di tali dimensioni sono differenti, ma sai dietro al monitor siamo tutti napalm51
LurenZ87
15-11-2016, 18:59
che poi a piangere sono tutti quelli che non hanno nel case AMD, chi la ha non sta mica a frignare su questo thread, generalmente... Lurenz a parte (che per altro non scriveva da un secolo in realtà) ma lui ha esigenze HARDware ! :D
Il "problema" (mio si intende) è il non avere un'alternativa valida alla Titan Pascal, o alla GTX 1080Ti, che Nvidia ha pronta ma che non presenta per ovvi motivi. Vorrei avere una scheda per poter sfruttare il 4K come si deve, oltre ad avere il supporto del Freesync del mio monitor, ma a quanto pare la mia X spegnerà anche la seconda candelina all'interno del mio case, cosa che non avveniva da un botto di anni.
Inviato dal mio OnePlus 3 utilizzando Tapatalk
Einhander
15-11-2016, 19:04
Dici a me, sei serio? Guarda che te sei quello delle vignette/battutine o frecciate. Quindi sei uno di quelli che prima tira il sasso e poi ritrae la mano?
Non puoi pretendere che prima posti il "libro delle scuse" e poi che nessuno ti risponda al tuo stesso tono. Andiamo bene:help:
Non so' a volte penso che "la scuola di comunicazione" di spider-coso abbia fatto, per l'appunto, scuola.
Tollero molto di piu' gli smadonnamenti ricorrenti di Ale55andro di cui raramente condivido le ragioni, ma almeno lui e' utente amd e lo dice perche' spera realmente -a suo modo :asd:- una ripresa Nel mercato GPU da parte di amd/ati piuttosto che la gente che va avanti a faccine come ";) " o con battutine ironiche che hanno il solo scopo di far reagire la gente per poi professarsi innocenti e/o vittime...bah :rolleyes:
Cmq in mezzo alle mirabolanti immagini e paragoni del fatturato in casa amd e nvidia e corrispettivo calo dal 2008 a questa parte io ci inserirei pure la crisi che ha investito l'intero occidente proprio a partire da quegli anni e che ha, necessariamente, minato moltissimi mercati indipendentemente dalla tipologia di prodotti/serivizi venduti.
L'unico motivo per cui preferisco ati/amd e' dovuto al fatto che la mia prima scheda video fu proprio una ati 9800 pro -si, m'ha detto culo, piu' o meno come se inizi con nvidia all'epoca delle gtx 8800 ultra- e al fatto che mentre amd combina casini vari in periodi di fusione, crisi mondiale, insuccesso di tecnologie e prodotti piu' o meno involontariamente, nvidia oltre ad avere anche lei le sue magagne ci prova in tutti i modi ad incul@re i proprio utenti e loro che fanno?
Ci ricadono e anzi ne prendono le difese....
Proprio vero che siamo di fronte ad un'era del tutto nuova, piu' ti tirano legnate e cercano in tutti i modi di f0tt3rt1 piu' la gente ti osanna -vedi Trump con le minoranze e le donne :asd:-
Bah...
Einhander
15-11-2016, 19:08
Il "problema" (mio si intende) è il non avere un'alternativa valida alla Titan Pascal, o alla GTX 1080Ti, che Nvidia ha pronta ma che non presenta per ovvi motivi. Vorrei avere una scheda per poter sfruttare il 4K come si deve, oltre ad avere il supporto del Freesync del mio monitor, ma a quanto pare la mia X spegnerà anche la seconda candelina all'interno del mio case, cosa che non avveniva da un botto di anni.
Inviato dal mio OnePlus 3 utilizzando Tapatalk
il problema vero e che se e quando uscira' Vega sara'-o meno- una degna rivale per la 1080ti o "SOLO" per la 1080 liscia....:(
Non ritengo RAZIONALE pensare che due gpu possano colmare L'EVENTUALE divario prestazionale tra le 480 e le vega -qualora queste schede siano, appunto, allineate con le prestazioni della 1080ti in termini di un 10% max di differenza-
Sì che la venderebbe a meno. Sarebbe poi nvidia che calerebbe di prezzi e la finirebbe così di spennare gli appassionati.
Inviato dal mio GT-I9505 utilizzando Tapatalk
il problema vero e che se e quando uscira' Vega sara'-o meno- una degna rivale per la 1080ti o "SOLO" per la 1080 liscia....:(
Lasciando da parte la Titan X che è "fuori parametro", la 1080 è "solo" una scheda di fascia altissima, che fa girare tutto da dio, eh... no perché sembra che adesso sia una cacchina... :fagiano:
Ora... non so se qua giocate tutti con schermi 4k, multimonitor o che altro.... ma il 90% della gente è tanto se arriva al fullHD, eh, quindi una "equivalente" alla 1080 o lì in giro, se a prezzo equo, non mi farebbe per nulla schifo, anzi! :D
Scusa ma guarda i valori attuali.
Una 480 GTR 8GB la si trova sui 240Euro.
Il prezzo, viste le prestazioni e la bontà di questo modello mi pare ottimo.
La 1080 ti pare abbia un prezzo onesto?
La 1070 ancora ancora, ma la 1080 é una spennapolli.
Inviato dal mio GT-I9505 utilizzando Tapatalk
aled1974
15-11-2016, 20:35
+1
anche io spero sia tutta una lineup di prodotti :mano:
ciao ciao
fraussantin
15-11-2016, 20:44
Rimango del tutto convinto che Vega sia un'intera lineup di prodotto, non UNA scheda video (più una di rimessa, XT e PRO, per dirla alla ATi).
Poi magari mi sbaglio, visto che a quanto pare la pensano tutti nell'altro modo, eh...
Sent from my HTC One M9 using Tapatalk
Se non sbaglio era stato detto che in vega ci sarà anche un vs "rifatta " di polaris. ( non rebrand).
Magari è vero.
Einhander
15-11-2016, 21:18
Lasciando da parte la Titan X che è "fuori parametro", la 1080 è "solo" una scheda di fascia altissima, che fa girare tutto da dio, eh... no perché sembra che adesso sia una cacchina... :fagiano:
Ora... non so se qua giocate tutti con schermi 4k, multimonitor o che altro.... ma il 90% della gente è tanto se arriva al fullHD, eh, quindi una "equivalente" alla 1080 o lì in giro, se a prezzo equo, non mi farebbe per nulla schifo, anzi! :D
Non ci siamo capiti -e infatti avevo messo tra virgolette il SOLO, proprio perche' la differenza di prestazioni tra una 480 e una o due vega sarebbe cmq troppo, cioe' in mezzo ci sarebbe uno spazio difficile da colmare, poi oh se vega saranno 3-4 modelli come e' successo per polaris 10 e 11 ben venga, ma finche non lo dicono con chiarezza tendo ad interpretarla come un'altra architettura full e non full (XT e PRO per dirla alla Ati).
Il solo in relazione alla 1080, tra l'altro era anche dovuto alla potenziale 1080ti di nvidia che a questo punto alzerebbe l'asticella ancora piu' in alto lasciando amd PERENNEMENTE senza lo scettro di gpu piu' potente, che a me frega poco, ma nella fascia alta, quando giochi, lo dovresti fare per vincere non per arrivare perennemente secondo con prodotti appena lanciati sul mercato...se invece vega xt si rivelasse allineata ad una potenziale 1080ti (anche un -10%) con un prezzo piu' basso -e non parlo di 50 euro chiaro- allora avrebbe cmq senso, anche se non sarebbe, in ogni caso, "LA PIU' VELOCE" tra le gpu umane -e non ladrate modello titan x-.
Fermo restando che io proprio non riesco a stupirmi delle prestazioni delle 1070 delle 1080, proprio no..e se amd avesse fatto lo stesso sarebbe stato uguale, come infatti -temo- sara' a fine anno...
P.s.: attualmente sono fermo ad una 7970 NON ghz e gioco a BF1 in fullhd 16:10 con quasi tutto a palla e poca roba a medio -ombre e post su tutto- e riesco quasi sempre a rimanere nei dintorni dei 60 frame al secondo in dx12 sulle partite in multiplayer..altro che 4k con settaggi no-sense sparati in orbita :asd
No non scatenatemi einhander!!!
Oirasor_84
15-11-2016, 22:44
Io spero che vega consumi 480w in modo tale da sfruttare meglio la certificazione platinum dell'alimentatore,che scaldi come un forno così ho la scusa per comprare un bel waterblock,che sia sbilanciatissimo lato rops, pieno zeppo di transistor e con i driver in alpha-beta-hotfix che tolgono fra il 15/20% di prestazioni in modo tale da restar sotto la ipotetica gtx1080ti,che dia il meglio di se nel primo game non tripla A programmato come si deve con vulkan e allora si che sarà mia al dayone ;)
Dici a me, sei serio? Guarda che te sei quello delle vignette/battutine o frecciate. Quindi sei uno di quelli che prima tira il sasso e poi ritrae la mano?
Non puoi pretendere che prima posti il "libro delle scuse" e poi che nessuno ti risponda al tuo stesso tono. Andiamo bene:help:
Se scatti agli insulti per una vignetta devo aver colpito un nervo scoperto. :asd: :sofico:
Sinceramente non capirò mai come si può esser fanatici di un pezzo di silicio.:help:
si ma la 480 gtr è equivalente ad una 1060 custom che si trova se non alla stessa cifra a 20 di più. Non è come ai tempi dela 4870 che costava 200... amd se le fa pagare le schede, di meno, ma se le fa pagare e ultimamente la differenza di prezzo non è stata marcatissima, soprattutto se andiamo a guardare la fascia alta dove appunto la furyx, vuoi per le soluzioni tecniche presentate, costava magari più di alcune 980ti e non è scesa di prezzo per tanto tempo.
se vega dovesse essere anche lei gioco forza costosa, hai voglia ad aspettare il prezzo competitivo. Secondo me, discorsi di monitor a parte (chi ha il gsync chi il freesync), sperare che la 1080 liscia cali di prezzo grazie a vega, che non sappiamo ancora con chi si scontra, secondo me fa perdere tempo. Se uno vuole quelle prestazioni prende ora la 1080 e bon, se puoi aspettare aspetti senza teatro, concorrenza che non c'è e frasi inutili... la 1070 ha un prezzo "abbordabile" per le caratteristiche che ha, se amd per adesso vuole rinunciare a questa fascia sono caxxi suoi, chi ha una furyx non invidia tantissimo chi ha una 1070, chi non la ha, si compra la 1070 e campa 100anni.
Vedi Ulti peró...
Prendo una 480 ad esempio 250Euro.
E mi trovo con 2GB di vram in piú, un ottimo supporto lato driver (forse ad oggi migliore di quello nvidia).
Inoltre se poi voglio un bel monitor Freesync per esempio spendo 300Euro.
Quindi totale:
RX480 8 GB + Monitor Freesync = 550Euro.
Prendo una 1060, 270Euro ed ho 2GB di vram in meno.
E qualche casinetto lato driver.
Poi ci aggiungo un monitor gsync (di fatture uguali a quello con Freesync) e spendo 480Euro.
Totale: 750Euro.
Capisci che la differenza di costi (200Euro) é importante e si ha pure qualcosa meno?
Poi nessuno mette in dubbio che le 1070 e le 1080 siano brutte GPU per caritá.
Peró chi deve giocare a 1080P, la scelta ottimale ad oggi la ha con 480 e Freesync.
Tolto che con Freesync e 480 si tiesce a gestire decentemente anche il 1440P.
Legolas84
16-11-2016, 05:29
È abbastanza riduttivo secondo me vista così... La 1060 costa in media quanto la 480 e va, in media leggermente più veloce consumando meno.
Lato driver penso tu sia uno dei pochi che preferisce i driver AMD a quelli NVIDIA... Libero di farlo eh, ma è un'opinione personale...
Il g-sync costa più del freesync ma da dei vantaggi, come il sistema di riduzione del ghosting agendo sulla tensione dei pixel cosa che freesync non fa. Inoltre essendo un sistema chiuso è implementato su tutti i monitor con la medesima qualità cosa che non avviene per freesync...
Gli 8gb possono essere davvero l'unico motivo per poter valutare una 480 nel caso effettivamente quei 2gb possano servire all'utente, perché comunque 6gb per una scheda della fascia che occupa la 1060 sono più che sufficienti....
Inviato dal mio ONE A2003 utilizzando Tapatalk
Io non capisco come nel 2016 quasi 2017 si possa ancora dire driver AMD o driver Nvidia e prendere pure parte di uno di questi quando entrambi o per una cosa o per un altra ne hanno fatte di cotte e di crude facendo imprecare qualunque povero cristo.
Mister D
16-11-2016, 07:07
Se scatti agli insulti per una vignetta devo aver colpito un nervo scoperto. :asd: :sofico:
Sinceramente non capirò mai come si può esser fanatici di un pezzo di silicio.:help:
Ma quale nervo scoperto e insulti. Sei serio un'altra volta???? Davvero??? Io ho usato lo stesso tono della vignetta, quindi le possibilità sono due: se ritieni di essere stato insultato dalla mia risposta allora hai tu insultato prima gli altri (non solo me) con la tua vignetta ergo "non fare agli altri ciò che non piace venga fatto a te", altrimenti non c'è nessun insulto ma solo un tono satirico (che per me non fa neanche male). Ma il problema è che tu prima inizi gli sfottò e poi stranamente non sopporti che gli altri ti possano girare la tua stessa arma contro di te. Cioè sto al tuo stesso gioco e non ti va bene? Andiamo bene e due :help:
Poi sinceramente mi devi spiegare come fai a darmi del fanatico o è in generale visto che quoti me? Se vai a controllare le pagine indietro ci saranno molti più post tuoi che miei, sarei un pessimo fanatico visto che non ti ho riposto sempre a tutti i tuoi "bellissimi post satirici".
Peccato che l'ulmb esclude il gsync ma vabbè questo è un forum tecnico, non facciamo caso ai dettagli (e ce l'hanno anche alcuni monitor freesync) meglio guardare le statistiche di vendita
fraussantin
16-11-2016, 07:36
Vedi Ulti peró...
Prendo una 480 ad esempio 250Euro.
E mi trovo con 2GB di vram in piú, un ottimo supporto lato driver (forse ad oggi migliore di quello nvidia).
Inoltre se poi voglio un bel monitor Freesync per esempio spendo 300Euro.
Quindi totale:
RX480 8 GB + Monitor Freesync = 550Euro.
Prendo una 1060, 270Euro ed ho 2GB di vram in meno.
E qualche casinetto lato driver.
Poi ci aggiungo un monitor gsync (di fatture uguali a quello con Freesync) e spendo 480Euro.
Totale: 750Euro.
Capisci che la differenza di costi (200Euro) é importante e si ha pure qualcosa meno?
Poi nessuno mette in dubbio che le 1070 e le 1080 siano brutte GPU per caritá.
Peró chi deve giocare a 1080P, la scelta ottimale ad oggi la ha con 480 e Freesync.
Tolto che con Freesync e 480 si tiesce a gestire decentemente anche il 1440P.
Io mi risparmierei i soldi del gsync o fsync e mi piglierei una vga superiore.
Meglio una 480 fsync o una 1070 e un paio di centoni in tasca?
I monitor g\v sync vanno bene su conf top come ciliegina.
Almeno fino a che non calano ancora a prezzi normali.
Poi legarmi ad una casa non mi piace.
Lato driver penso tu sia uno dei pochi che preferisce i driver AMD a quelli NVIDIA... Libero di farlo eh, ma è un'opinione personale...
Inviato dal mio ONE A2003 utilizzando Tapatalk
Prove concrete? Libero di farlo eh, ma è un'opinione personale...
Soulbringer
16-11-2016, 08:31
Giusto per rimanere in tema driver, una notizia fresca fresca: http://www.guru3d.com/news-story/nvidia-geforce-375-86-whql-drivers-have-major-issues.html :asd:
Hanno incrementato le performance da 60 a 25 fps!!
Io mi risparmierei i soldi del gsync o fsync e mi piglierei una vga superiore.
Meglio una 480 fsync o una 1070 e un paio di centoni in tasca?
I monitor g\v sync vanno bene su conf top come ciliegina.
Almeno fino a che non calano ancora a prezzi normali.
Poi legarmi ad una casa non mi piace.
in realtà è il contrario.....danno più benefici su config incostanti nell'erogare gli fps target
I TG non ne parlano! Condividi prima che venga censurato! :O
Le cose che nvidia e trump non vogliono farvi sapere, metodo rivoluzionario per ciccia e brufoli!!!!!111!!1!!!!!1
N3OM4TR|X
16-11-2016, 08:53
Giusto per rimanere in tema driver, una notizia fresca fresca: http://www.guru3d.com/news-story/nvidia-geforce-375-86-whql-drivers-have-major-issues.html :asd:
Hanno incrementato le performance da 60 a 25 fps!!
Purtroppo per i Driver consumer io sto adottando un algoritmo che si sta rivelando abbastanza efficace:
Esce un nuovo driver/hotfix (Nvidia o AMD che sia)?
do {
Driver = NuovoDriverAppenaRilasciatoSuperPowa;
// aspetta 3 giorni
if (Driver.sucks() == false) //se non ci sono notizie negative
Aggiorna;
else // Altrimenti
// aspetta Hotfix
} while (Driver.sucks() == true)
Scusate lo pseudo-codice ma sono a lavoro e non voglio perdere il ritmo :D
Soulbringer
16-11-2016, 09:00
ma anche su Neverwinter Nights?
Penso mirassero più ad ottimizzare Wolfenstein 3D a 'sto giro... :p
fraussantin
16-11-2016, 09:14
in realtà è il contrario.....danno più benefici su config incostanti nell'erogare gli fps target
Senza dubbio.
Ma rimango del parere che una vga +prestante è meglio.
Poi se uno il monitor lo deve comprare cmq e lo danno a poco in più ..
È giusto.
Il g-sync costa più del freesync ma da dei vantaggi, come il sistema di riduzione del ghosting agendo sulla tensione dei pixel cosa che freesync non fa. Inoltre essendo un sistema chiuso è implementato su tutti i monitor con la medesima qualità cosa che non avviene per freesync...
Quello che hai descritto si chiama overdrive e ce l'hanno TUTTI i monitor, fresync, gsync e addirittura senza. :stordita:
Se ti riferisci a quel famoso monitor IPS Acer Freesync, è un problema firmware e nient'altro, visto che quando attiva la sincronizzazione l'overdrive funziona nel modo "low" invece di quello "normal".
Gyammy85
16-11-2016, 09:34
Non c'entra molto col topic (come le ultime quattro pagine) ma almeno questo porta una ventata di ottimismo :D
http://www.guru3d.com/news-story/amd-radeon-technology-will-be-available-on-google-cloud-platform-in-2017.html
fraussantin
16-11-2016, 10:23
Nel tempo che cambio un monitor cambio dalle 3 alle 5 vga, quindi il mio investimento sul monitor me lo godo per tutte, quello sulla vga solo per una.
L'unico effettivo problema di fsync e gsync è che funzionano solo su una marca di vga, per scelta di nVidia. Quindi nel dubbio il monitor lo prenderò comunque FSync, visto che mi costa MOLTO meno, anche nel caso dell'Asus MG279Q che sto per prendere e che non è certo economico, il cui omologo GSync costa il 30% in più.
Poi se ci metterò una nVidia pazienza, magari lo sfrutto al giro successivo, ma non ci ho speso un soldo in più per avere questa opzione.
Il discorso è giusto.
Ma il costo non vale il gioco a meno che appunto uno non debba cambiare monitor.
Se hai già un monitor fhd decente( che ormai sono 7,8 anni che sono lo standard ) , che senso ha prendere una 480 + fsync a 550 euro per rimanere in fhd?
Potresti tentate un 1440p fsync. Ma la 480 basta?
Boh insomma tutto vero , ma non mi convince. Preferisco una vga prestante tra le 2.
La 480 è una vga valida e la sto consigliando a un mio amico per un pc di fascia media. Ma sinceramente mai mi spgnerei di fargli spendere 400 per un monitor.
Poi è vero il
Legolas84
16-11-2016, 10:27
Quello che hai descritto si chiama overdrive e ce l'hanno TUTTI i monitor, fresync, gsync e addirittura senza. :stordita:
Se ti riferisci a quel famoso monitor IPS Acer Freesync, è un problema firmware e nient'altro, visto che quando attiva la sincronizzazione l'overdrive funziona nel modo "low" invece di quello "normal".
No no aspetta stai facendo confusione.
L'overdirve lo hanno i normali monitor da un sacco di tempo e si imposta tramite OSD del monitor su vari livelli. Il livello lo decide l'utente e se esagera crea spesso artefatti.
G-Sync funziona diversamente in quanto al variare del refresh del monitor automaticamente va ad agire e regolare la tensione dei pixel ottimizzando la riduzione del ghosting. Questa feature non è presente sul freesync.
Del monitor IPS Freesync che aveva problemi non ho nemmeno parlato, ho solo detto che questa feature è presente solo su g-sync.
Poi ovvio se uno standard è chiuso e implementabile / gestibile da una sola azienda è ovvio che ci sono meno possibilità in teoria che abbia problemi. Se uno standard viene implementato da diversi costruttori invece può accadere più facilmente che qualche problema possa spuntare :)
L'UMLB è ancora un'altra cosa... Frozen è meglio che continui a fare il troll che ti riesce meglio.... ah no ma lo stavi facendo anche nel post sopra, scusa :D
Legolas84
16-11-2016, 10:36
Prove concrete? Libero di farlo eh, ma è un'opinione personale...
Ma guarda, io penso che bene o male siano tutte opinioni personali quando si parla di driver... anche perchè come sempre dipende da che software o giochi usi... e a volte i problemi non escono su tutte le configurazioni ma solo su alcune....
Quindi magari trovi l'utente a cui spesso le cose non funzionano e quello a cui vanno sempre bene....
In generale però l'utenza preferisce NVIDIA (non lo dico io, lo dicono i dati di vendita anche dei mercati professionali dove il supporto software conta ancora di più), perchè probabilmente ci sono meno possibilità di riscontrare problemi (e non di non riscontrarne perchè ripeto i problemi ci sono con entrambi).
Una cosa che ho potuto provare sulla mia pelle è che il forum di supporto NVIDIA in caso di problemi risponde in modo davvero efficace... addirittura anni fa mi misero in contatto direttamente con il team che lavorava ai driver per risolvere un problema di compatibilità....
No no aspetta stai facendo confusione.
L'overdirve lo hanno i normali monitor da un sacco di tempo e si imposta tramite OSD del monitor su vari livelli. Il livello lo decide l'utente e se esagera crea spesso artefatti.
G-Sync funziona diversamente in quanto al variare del refresh del monitor automaticamente va ad agire e regolare la tensione dei pixel ottimizzando la riduzione del ghosting. Questa feature non è presente sul freesync.
Del monitor IPS Freesync che aveva problemi non ho nemmeno parlato, ho solo detto che questa feature è presente solo su g-sync.
Poi ovvio se uno standard è chiuso e implementabile / gestibile da una sola azienda è ovvio che ci sono meno possibilità in teoria che abbia problemi. Se uno standard viene implementato da diversi costruttori invece può accadere più facilmente che qualche problema possa spuntare :)
Avresti qualche articolo in merito?
Quello che non riesco a capire, è che l'overdrive fa ESATTAMENTE quello che dici tu...in pratica altera la tensione dei pixel in modo da velocizzare le singole transizioni.
Ovviamente più sei aggressivo con questo "tuning", più corri il rischio di avere artefatti. A causa della legge dei segnali, se il tuo sistema di controllo non fa convergere il risultato nel tempo prestabilito, hai un effetto chiamato overshooting e ottieni la transizione sbagliata, ottenendo un colore di pixel diverso.
Quello che voglio dire, è che mi sembra difficile che i monitor Gsync abbiano due sistemi di "tuning" dei pixel che funzionano in contemporanea pestandosi i piedi.
È più probabile che quando utilizzi il refresh variabile l'overdrive funzioni in un modo custom...e qui Acer ha sbagliato di brutto con il modello IPS Freesync che ti avevo detto, proprio perchè lo usa in modo conservativo. Risolvibilissimo via firmware, ma Acer non ci ha messo mano purtroppo.
Legolas84
16-11-2016, 13:06
Avresti qualche articolo in merito?
Quello che non riesco a capire, è che l'overdrive fa ESATTAMENTE quello che dici tu...in pratica altera la tensione dei pixel in modo da velocizzare le singole transizioni.
Ovviamente più sei aggressivo con questo "tuning", più corri il rischio di avere artefatti. A causa della legge dei segnali, se il tuo sistema di controllo non fa convergere il risultato nel tempo prestabilito, hai un effetto chiamato overshooting e ottieni la transizione sbagliata, ottenendo un colore di pixel diverso.
Quello che voglio dire, è che mi sembra difficile che i monitor Gsync abbiano due sistemi di "tuning" dei pixel che funzionano in contemporanea pestandosi i piedi.
È più probabile che quando utilizzi il refresh variabile l'overdrive funzioni in un modo custom...e qui Acer ha sbagliato di brutto con il modello IPS Freesync che ti avevo detto, proprio perchè lo usa in modo conservativo. Risolvibilissimo via firmware, ma Acer non ci ha messo mano purtroppo.
In un monitor g-sync la tensione dei pixel è comandata dal modulo g-sync che la altera a seconda del tipo di pannello e del refresh rate a cui sta operando.
http://www.hwupgrade.it/articoli/skvideo/4337/recensione-acer-xg270hu-l-eterna-sfida-tra-radeon-e-geforce-si-sposta-sui-monitor_6.html
Questa parte:
Secondo i comunicati di NVIDIA, G-Sync previene il problema del ghosting modificando la quantità di tensione dei pixel sulla base del refresh rate abilitato. Questo permette ai pixel di accendersi e spegnersi in maniera differente a seconda della frequenza di aggiornamento del monitor impostata sulla base del frame rate. Come potete vedere dal nostro test, anche in questo caso sembra che il funzionamento di G-Sync sia migliore.
Tralascia il risultato pessimo che ha il monitor Acer Freesync in questo test perchè può essere appunto dovuto a un firmware del cavolo.... quello su cui voglio focalizzare l'attenzione è che il g-sync ha una feature che manca al freesync....
Su un monitor freesync l'overdrive funziona in modo classico come è sempre funzionato, sul g-sync invece è ottimizzato e gestito dal g-sync. Inoltre proprio come dicevo prima, se Freesync fosse stato uno standard chiuso implementato solo da AMD con moduli creati solo da AMD, probabilmente non ci sarebbero stati quei problemi iniziali al firmware dell'acer... ecco perchè io personalmente preferisco di più uno standard chiuso e interamente controllabile da una sola azienda... ma questo comunque è un altro discorso personale :)
Einhander
16-11-2016, 13:49
In un monitor g-sync la tensione dei pixel è comandata dal modulo g-sync che la altera a seconda del tipo di pannello e del refresh rate a cui sta operando.
http://www.hwupgrade.it/articoli/skvideo/4337/recensione-acer-xg270hu-l-eterna-sfida-tra-radeon-e-geforce-si-sposta-sui-monitor_6.html
Questa parte:
Secondo i comunicati di NVIDIA, G-Sync previene il problema del ghosting modificando la quantità di tensione dei pixel sulla base del refresh rate abilitato. Questo permette ai pixel di accendersi e spegnersi in maniera differente a seconda della frequenza di aggiornamento del monitor impostata sulla base del frame rate. Come potete vedere dal nostro test, anche in questo caso sembra che il funzionamento di G-Sync sia migliore.
Tralascia il risultato pessimo che ha il monitor Acer Freesync in questo test perchè può essere appunto dovuto a un firmware del cavolo.... quello su cui voglio focalizzare l'attenzione è che il g-sync ha una feature che manca al freesync....
Su un monitor freesync l'overdrive funziona in modo classico come è sempre funzionato, sul g-sync invece è ottimizzato e gestito dal g-sync. Inoltre proprio come dicevo prima, se Freesync fosse stato uno standard chiuso implementato solo da AMD con moduli creati solo da AMD, probabilmente non ci sarebbero stati quei problemi iniziali al firmware dell'acer... ecco perchè io personalmente preferisco di più uno standard chiuso e interamente controllabile da una sola azienda... ma questo comunque è un altro discorso personale :)
Davvero?
Standard chiusi?
Fantastico, sogno mondi di adattatori non inclusi nel monitor corrispondenti al nome di VGA xD
No sul serio...pensavo che le esperienze di apple e sony fossero sufficienti in merito, senza contare altri mirabolanti esempi di robe tipo gameworks ecc ecc...
Non so' ma a me ste robe qua fanno sempre pensare che la migliore qualita' di cui parli e che cmq costa, quindi non e' gratis, ma incide e pure parecchio sul costo,sia, non il minimo, ma proprio un pre-requisito anche solo per potersi azzardare ad immettere qualcosa in commercio.
Fermo restando che se non "sfonda" va a finire nel sempre verde oblio degli standard chiusi non adottati dalle masse, ma che finiscono sempre per aumentare i costi per l'utente finale.
Fino a che punto sta fantomatica migliore qualita' e' giustificata con un aumento dei costi?
Fermo restando che pure un prezzo inferiore puo' essere una notevole qualita' "in piu' "..
Legolas84
16-11-2016, 13:56
Davvero?
Standard chiusi?
Fantastico, sogno mondi di adattatori non inclusi nel monitor corrispondenti al nome di VGA xD
No sul serio...pensavo che le esperienze di apple e sony fossero sufficienti in merito, senza contare altri mirabolanti esempi di robe tipo gameworks ecc ecc...
Non so' ma a me ste robe qua fanno sempre pensare che la migliore qualita' di cui parli e che cmq costa, quindi non e' gratis, ma incide e pure parecchio sul costo,sia, non il minimo, ma proprio un pre-requisito anche solo per potersi azzardare ad immettere qualcosa in commercio.
Fermo restando che se non "sfonda" va a finire nel sempre verde oblio degli standard chiusi non adottati dalle masse, ma che finiscono sempre per aumentare i costi per l'utente finale.
Fino a che punto sta fantomatica migliore qualita' e' giustificata con un aumento dei costi?
Fermo restando che pure un prezzo inferiore puo' essere una notevole qualita' "in piu' "..
Tralasciando le prime 6 righe del tuo post, sono assolutamente daccordo con te.
Io dico soltanto che uno standard chiuso è più controllabile da parte di chi lo produce. Tutto qui. Ed è per questo che su monitor g-sync non sono successi casini come su quell'acer.
Poi ovvio ognuno deve fare le sue valutazioni, io penso sempre che chi vuole risparmiare e spendere poco vada giustamente su AMD, NVIDIA costa sicuramente più cara e da qualcosa in più... per alcuni quel qualcosa in più può essere importante per altri no... e per questo che comunque c'è chi compra uno e chi compra l'altro ;)
Legolas84
16-11-2016, 14:53
Il numero di monitor GSync e' una quarto di quelli FSync, le probabilita' che ci fosse un modello con un problema erano quadruple...
E d'altra parte il modulo GSync non e' una scatola magica, quindi i problemi il produttore li puo' introdurre pure in quelli.
La recensione che e' stata postata sopra e' un confronto fra due monitor, non fra FSync e GSync.
Se dici che sono diversi (si', insomma, sono praticamente uguali) posso essere d'accordo, ma che si paghi di piu' uno dell'altro perche' ti da di piu' e' una fantasia. Lo paghi di piu' perche' a nVidia interessa farti pagare delle royalties. Esattamente come con lo SLI. Chiamala pure NV TAX.
Io do piu' valore ad una tecnologia aperta che ad una con un pezzo d'hardware in piu' (aggiungiamo pure che il pezzo in piu' e' un pezzo in piu' che puo' rompersi o essere DOA), quando per il resto alla prova dei fatti sono identiche.
L'unica reale differenza e' il prezzo di vendita e in senso piu' ampio anche la varieta' di modelli fra cui poter scegliere (piu' di 80 contro 20).
Bo non so cosa ci sia di difficile a capire che G-Sync può controllare la tensione dei pixel in base al refresh del monitor per ridurre il ghosting, e FreeSync no. E che una tecnologia chiusa sia più facilmente controllabile dal produttore di una aperta.... (Vedi anche iOS vs Android)....
Non ho detto che FreeSync fa schifo o non funziona.....
G-Sync costa di più, sei obbligato ad orientarti su quello se hai una VGA NVIDIA e vuoi la sincronia adattiva, ha una funzione in più di FreeSync e ha meno probabilità di avere problemi.
Poi ognuno faccia le sue valutazioni e decida.... io non critico mai le scelte degli altri.
ah, g-sync non è un pezzo in più.... viene messo al posto dello scaler normale.... nei monitor freesync è lo scaler a prendersi carico dei compiti di sincornia adattiva, e può essere di vari produttori.
Legolas84
16-11-2016, 14:58
Non c'e' niente di difficile da capire. Il punto e' che all'atto pratico e con il monitor davanti non c'e' alcuna differenza fra le due implementazioni, a parte che una costa di piu', ovviamente.
Per te evidentemente no.... a me fa piacere avere meno ghosting soprattutto su monitor IPS che notoriamente ne soffrono più di quelli TN....
Come ti ho detto ognuno fa le sue valutazioni cavolo.... :muro:
fraussantin
16-11-2016, 15:00
Per te evidentemente no.... a me fa piacere avere meno ghosting soprattutto su monitor IPS che notoriamente ne soffrono più di quelli TN....
Come ti ho detto ognuno fa le sue valutazioni cavolo.... :muro:
Tra l'altro il reverse ghosting è additittura piu odioso del ghosting stesso.
Legolas84
16-11-2016, 15:04
Tra l'altro il reverse ghosting è additittura piu odioso del ghosting stesso.
Il reverse si manifesta con impostazioni di ovveride troppo aggressive....
fraussantin
16-11-2016, 16:24
Il reverse si manifesta con impostazioni di ovveride troppo aggressive....
Sul mio è aberrante. Anche a low su alcuni colori si vede la costoletta. Invece su off si nota pochissimo il ghosting.
È un peccato perchè come colori è molto equilibrato e naturale. Ovviamente è un lowbudget .
Free Gordon
16-11-2016, 16:33
È abbastanza riduttivo secondo me vista così... La 1060 costa in media quanto la 480 e va, in media leggermente più veloce consumando meno.
Lato driver penso tu sia uno dei pochi che preferisce i driver AMD a quelli NVIDIA... Libero di farlo eh, ma è un'opinione personale...
Il g-sync costa più del freesync ma da dei vantaggi, come il sistema di riduzione del ghosting agendo sulla tensione dei pixel cosa che freesync non fa. Inoltre essendo un sistema chiuso è implementato su tutti i monitor con la medesima qualità cosa che non avviene per freesync...
Gli 8gb possono essere davvero l'unico motivo per poter valutare una 480 nel caso effettivamente quei 2gb possano servire all'utente, perché comunque 6gb per una scheda della fascia che occupa la 1060 sono più che sufficienti...
Appunto, son punti di vista.. ;)
Io mi risparmierei i soldi del gsync o fsync e mi piglierei una vga superiore.
Meglio una 480 fsync o una 1070 e un paio di centoni in tasca?
I monitor g\v sync vanno bene su conf top come ciliegina.
Almeno fino a che non calano ancora a prezzi normali.
Poi legarmi ad una casa non mi piace.
Sono due cose completamente diverse..un monitor e una VGA.
Con il monitor freesync "giusti" (quelli che hanno LFC...sostanzialmente), non si ha tearing durante il gioco.
Si può dire la stessa cosa nell'uso di una 1070 senza Gsync.
No...
Cosa c'entrino le due cose dovresti spiegarmelo...
in realtà è il contrario.....danno più benefici su config incostanti nell'erogare gli fps target
Certo..
Peccato che l'ulmb esclude il gsync ma vabbè questo è un forum tecnico, non facciamo caso ai dettagli (e ce l'hanno anche alcuni monitor freesync) meglio guardare le statistiche di vendita
Azz, Nvidia fault! :mad: Com'è possibbbile?? :stordita:
Capito dopo cosa intendeva
Parlava del overdrive a frequenza variabile, l'ulmb è strobing che serve anche lui a ridurre il ghosting ma lavora diversamente dal overdrive (che normalmente lavora a refresh fisso, non variabile....riduce il ghosting ma diminuisce la precisione dei colori (letto, ovviamente))...usando pannelli ad alto rr comunque è ridotto di molto il ghosting percui è una pippa per monitor "lenti", un contorno, la ciccia è altro.....
Legolas84
16-11-2016, 16:44
Capito dopo cosa intendeva
Parlava del overdrive a frequenza variabile, l'ulmb è strobing che serve anche lui a ridurre il ghosting ma lavora diversamente dal overdrive (che normalmente lavora a refresh fisso, non variabile....riduce il ghosting ma diminuisce la precisione dei colori (letto, ovviamente))...usando pannelli ad alto rr comunque è ridotto di molto il ghosting percui è una pippa per monitor "lenti", un contorno, la ciccia è altro.....
Be dai l'importante è capirlo.... è la vecchiaia che avanza :D
Come detto punti di vista c'è a chi frega e a chi no.... come c'è chi ha una scheda di fascia media e chi di fascia alta :)
A me i risultati di Freesync e Gsync sembrano entrambi buoni e validi.
Peccato i 200Euro e passa per avere il GSync.
Stiamo parlando del costo di una 470/480...
Fossero 50Euro potrei anche capire, o almeno provarci.
A me le 1070/1080 piacciono ma NON voglio farmi spennare da chi se ne approfitta delle nostre passioni.
Inviato dal mio GT-I9505 utilizzando Tapatalk
kira@zero
16-11-2016, 19:09
Gsync "putroppo" è migliore del freesync al di là del fatto che sulla maggior parte dei monitor freesync non funziona l'overdrive e che non funziona o non si nota la differenza sotto i 90fps..
Gsync "putroppo" è migliore del freesync al di là del fatto che sulla maggior parte dei monitor freesync non funziona l'overdrive e che non funziona o non si nota la differenza sotto i 90fps..
io ho provato un monitor freesync, che dire spettacolare, niente tearing niente di niente :) era un aoc 1080p......io se ne prendero' uno sarà 2k ma per adesso nisba
In un monitor g-sync la tensione dei pixel è comandata dal modulo g-sync che la altera a seconda del tipo di pannello e del refresh rate a cui sta operando.
http://www.hwupgrade.it/articoli/skvideo/4337/recensione-acer-xg270hu-l-eterna-sfida-tra-radeon-e-geforce-si-sposta-sui-monitor_6.html
Questa parte:
Secondo i comunicati di NVIDIA, G-Sync previene il problema del ghosting modificando la quantità di tensione dei pixel sulla base del refresh rate abilitato. Questo permette ai pixel di accendersi e spegnersi in maniera differente a seconda della frequenza di aggiornamento del monitor impostata sulla base del frame rate. Come potete vedere dal nostro test, anche in questo caso sembra che il funzionamento di G-Sync sia migliore.
Tralascia il risultato pessimo che ha il monitor Acer Freesync in questo test perchè può essere appunto dovuto a un firmware del cavolo.... quello su cui voglio focalizzare l'attenzione è che il g-sync ha una feature che manca al freesync....
Su un monitor freesync l'overdrive funziona in modo classico come è sempre funzionato, sul g-sync invece è ottimizzato e gestito dal g-sync. Inoltre proprio come dicevo prima, se Freesync fosse stato uno standard chiuso implementato solo da AMD con moduli creati solo da AMD, probabilmente non ci sarebbero stati quei problemi iniziali al firmware dell'acer... ecco perchè io personalmente preferisco di più uno standard chiuso e interamente controllabile da una sola azienda... ma questo comunque è un altro discorso personale :)
Ah ok, ho capito. Quando usi la sincronizzazione la gestione dell' overdrive passa al modulo. (quindi sempre di overdrive si tratta)
Certo, in questo modo sei sicuro di implementarlo bene. Questo non vuol dire che sia una soluzione migliore o peggiore in termini assoluti, ma almeno lo fai secondo i tuoi standard e non corri rischi con i fabbricanti.
Sono sicuro che una cosa del genere può benissimo essere gestita dal firmware con qualità simile, basta volerlo/saperlo fare.
Gsync "putroppo" è migliore del freesync al di là del fatto che sulla maggior parte dei monitor freesync non funziona l'overdrive e che non funziona o non si nota la differenza sotto i 90fps..
Ho provato il modello MG279Q ed è spettacolare. Niente tearing o ghosting. Purtroppo ha lo scaler "segato" e il freesync funziona solo fino a 90Hz di fabbrica, ma la gestione dell'overdrive è ottima.
kira@zero
16-11-2016, 20:51
Ah ok, ho capito. Quando usi la sincronizzazione la gestione dell' overdrive passa al modulo. (quindi sempre di overdrive si tratta)
Certo, in questo modo sei sicuro di implementarlo bene. Questo non vuol dire che sia una soluzione migliore o peggiore in termini assoluti, ma almeno lo fai secondo i tuoi standard e non corri rischi con i fabbricanti.
Sono sicuro che una cosa del genere può benissimo essere gestita dal firmware con qualità simile, basta volerlo/saperlo fare.
Ho provato il modello MG279Q ed è spettacolare. Niente tearing o ghosting. Purtroppo ha lo scaler "segato" e il freesync funziona solo fino a 90Hz di fabbrica, ma la gestione dell'overdrive è ottima.
l'overdrive si disattiva non è detto che comunque non funzioni ;)
ovvio che quel pannello sia bello mai provato l'mg279, ma ho visto il predator xb271 e il pg279 che hanno lo stesso pannelo :cool:
A me i risultati di Freesync e Gsync sembrano entrambi buoni e validi.
Peccato i 200Euro e passa per avere il GSync.
Stiamo parlando del costo di una 470/480...
Fossero 50Euro potrei anche capire, o almeno provarci.
A me le 1070/1080 piacciono ma NON voglio farmi spennare da chi se ne approfitta delle nostre passioni.
Inviato dal mio GT-I9505 utilizzando Tapatalk
Sta sulle 400 la 1070, per una scheda che va più di una 980ti occata consumando meno, non vedo lo spennamento.
E' un ottima scheda performance/prezzo.
Ale55andr0
16-11-2016, 21:27
Novità sulle 490 ? .
Sei nel thread sbagliato
Free Gordon
16-11-2016, 23:02
Sei nel thread sbagliato
:asd:
Sei nel thread sbagliato
http://i.imgur.com/eNd3gwF.gif
fraussantin
16-11-2016, 23:33
Appunto, son punti di vista.. ;)
Sono due cose completamente diverse..un monitor e una VGA.
Con il monitor freesync "giusti" (quelli che hanno LFC...sostanzialmente), non si ha tearing durante il gioco.
Si può dire la stessa cosa nell'uso di una 1070 senza Gsync.
No...
Cosa c'entrino le due cose dovresti spiegarmelo...
beh so che non sono la stessa cosa , ma a mio avviso è meglio fare 144 fps col vsinc che 60 col freesync. risparmiando unpo.
oppure a ris alte , 60 vsync e 30 freesync.
forse mi sono spiegato male , ma quello che intendevo era appunto che se hai un budget, di 800 euro tu consigli una 480 ( più tutto il resto)
se hai un budget da 1100 euro , tu consigleiresti una 480 e un freesync , oppure una 1070 a 950 euro?
Che senso ha avere un monitor da 144 hz (che si presume ti serva per l'online gaming) e poi mettere qualsivoglia tecnologia di sync che ti aumenterà l'input lag?
Se giochi online non usi tecnologie che nel migliore dei casi i loro 30-40-50 ms di ritardo te li danno sempre e comunque.
Free Gordon
16-11-2016, 23:59
Io prenderei un monitor Freesync "buono", a priori.. ;)
Magari anche con HDR (bisognerà attendere un po' però).
La 480 o la 1070 sono scelte di budget, ovviamente.
Una scheda da gamer la cambi ogni 2, max 3 anni...un monitor no.
fraussantin
17-11-2016, 00:06
Io prenderei un monitor Freesync "buono", a priori.. ;)
Magari anche con HDR (bisognerà attendere un po' però).
La 480 o la 1070 sono scelte di budget, ovviamente.
Una scheda da gamer la cambi ogni 2, max 3 anni...un monitor no.
Si come detto prima.
Appunto che un monitor non lo cambi spesso , e visto che oramai un 1080p lo hanno quasi tutti ( 6.7 anni che sono lo standard), che senso ha cambiarlo per un 1080p FS?
Prendi un 1440p 144hz ..minimo ( altrimenti non ha senso l'upgrade). A che prezzo , e con una 480? Cene vogliono 2.
Io a quel punto prenderei una vga migliore e mi terrei monitor oppure una 480 e mi terrei pure i soldi in tasca per passare a navi o a volta.
Se poi uno il monitor non ce l'ha , inizia adesso ecc ... Può valutare. Anche se non costano poco.
Free Gordon
17-11-2016, 00:10
Si come detto prima.
Appunto che un monitor non lo cambi spesso , e visto che oramai un 1080p lo hanno quasi tutti ( 6.7 anni che sono lo standard), che senso ha cambiarlo per un 1080p FS?
Infatti io prenderei una 1440p freesync LFC oggi come oggi. :)
E l'unica GPU che lo possa sfruttare e che ha un senso perf/price oggi, è la RX480. ;)
fraussantin
17-11-2016, 00:16
Infatti io prenderei una 1440p freesync LFC oggi come oggi. :)
E l'unica GPU che lo possa sfruttare e che ha un senso perf/price oggi, è la RX480. ;)
A che prezzo? Prezzo da conf media?
Sfori i budget di ogni cristiano.
Free Gordon
17-11-2016, 00:53
A che prezzo? Prezzo da conf media?
Sfori i budget di ogni cristiano.
Come ti ho scritto prima, GPU e monitor son due cose separate. :D
Se dovessi cambiare GPU, prenderei una scheda che supporti il freesync...
Se devo cambiare monitor, oggi come oggi prenderei un monitor freesync 1440p con LFC.
Mi pare chiaro no?
PS. sul tuo discorso invece: una 1070 costa ALMENO 395€. Tutto fuorché config media a mio modesto parere.. ;)
Che poi li possa valere, questo è un altro discorso.
https://www.youtube.com/watch?v=-5dJD-fLfk8
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.