View Full Version : AMD Radeon R9 285: è la volta della nuova GPU Tonga
Redazione di Hardware Upg
02-09-2014, 14:00
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/4130/amd-radeon-r9-285-e-la-volta-della-nuova-gpu-tonga_index.html
Al debutto sul mercato la nuova famiglia di schede video di AMD destinate al segmento di fascia medio alta, con listini compresi tra 240 e 260 Euro nel mercato nazionale. L'architettura Graphics Core Next viene in parte evoluta, in attesa delle nuove proposte top di gamma. In test la scheda Sapphire R9 285 Dual-X OC: overclock di serie e sistema di raffreddamento custom
Click sul link per visualizzare l'articolo.
Opteranium
02-09-2014, 14:14
mah.. hanno fatto una "nuova" scheda che viaggia come la vecchia e allo stesso prezzo. Perché?
sgrinfia
02-09-2014, 14:24
mah.. hanno fatto una "nuova" scheda che viaggia come la vecchia e allo stesso prezzo. Perché?
Cosi qualche tonto pensa che sia una scheda nuova. e magari vende la 280 per questa 285 ,ignaro che alla fine è la stessa scheda:D
x Opteranium:
oltre a quello che dice sgrinfia (condivisibile) mi viene da pensare che su queste schede i vari produttori abbiano più margine (economico) perché il PCB è semplificato vista la minore bandwidth alla memoria e anche il sistema di raffreddamento può essere ridotto visti i minori consumi.
Opteranium
02-09-2014, 14:37
credo anch'io.. per lo meno qui hanno cambiato qualcosa a livello hardware in modo che non sia un semplice rebranding. Quello si che è fastidioso
Da questo ne consegue anche una riduzione del quantitativo di memoria video presente onboard: passiamo dai 3 Gbytes delle schede Radeon R9 280 e Radeon HD 7950 ai 2 Gbytes della proposta Radeon R9 285, con alcuni produttori che potranno optare per un quantitativo di 4 Gbytes.
Allora nella tabella sopra c'è un errore perché è scritto 3 dappertutto.
Questa si che è una scheda senza un minimo di senso...
Perchè dovrei preferire questa scheda rispetto ad una R9 280, che come dice l'articolo, forse a breve avranno un'abbassamento di prezzo?
Ma sopratutto perchè comprare una R9 285 se con poco più o allo stesso prezzo si riesce a trovare una R9 280X che è più appetibile?
Non mi stancherò mai di farlo presente... sembra che la maggior parte dei recensori con le schede video ci giochi e basta.
http://i.imgur.com/YazAVZi.png
http://www.techpowerup.com/reviews/Sapphire/R9_285_Dual-X_OC/23.html
Nel caso volessi lavorare con due monitor attivi, questa R9 285 consumerebbe 25W in più in idle rispetto alla più vicina concorrente NVidia. E' praticamente come avere un altro monitor acceso, solo per il fatto di avere l'output su schermi multipli.
Aggiungo che a questo punto ogni mia speranza in merito a possibili miglioramenti in questo senso da parte di AMD, cade, a meno che non sia prevista l'uscita di ulteriori schede dall'architettura GCN migliorata nel futuro prossimo, magari di fascia più bassa così non si sovrappongono con questa.
... una scheda video di cui nessuno sentiva il bisogno...
La questione dei consumi in idle non piace neppure a me.
Sapevo dei consumi elevati in caso di multimonitor (come fa notare anche s12a), cosa che spero sistemino con la prossima generazione, ma i test nell'articolo danno risultati pessimi anche in caso normale.
Si potrebbe indagare sulla questione? Siamo sicuri che non ci fosse più di un monitor connesso? La differenza mi pare eccessiva.
mah.. hanno fatto una "nuova" scheda che viaggia come la vecchia e allo stesso prezzo. Perché?
Hanno semplicemente terminato di aggiornare la gamma. La 280 era l'unica che ancora montava il chip "vecchio" delle 7900. Ora hanno completato il passaggio ai nuovi chip.
Il guadagno è tecnologico: trueaudio e consumi un po' inferiori.
La questione dei consumi in idle non piace neppure a me.
Sapevo dei consumi elevati in caso di multimonitor (come fa notare anche s12a), cosa che spero sistemino con la prossima generazione, ma i test nell'articolo danno risultati pessimi anche in caso normale.
Si potrebbe indagare sulla questione? Siamo sicuri che non ci fosse più di un monitor connesso? La differenza mi pare eccessiva.
Non avevo fatto troppa attenzione ai consumi rilevati da HWUpgrade tranne per il fatto di aver rapidamente controllato se ci fosse stata una distinzione fra singolo e multimonitor, ma guadando meglio c'è effettivamente qualcosa che non va. Sempre da Techpowerup (o qualunque altro sito di review) i consumi in idle con singolo monitor non sono assurdi con questa 285 (e le altre AMD del resto):
http://tpucdn.com/reviews/Sapphire/R9_285_Dual-X_OC/images/power_idle.gif
E' in multi che peggiorano in maniera sostanziale.
Dunque probabilmente qui con HWUpgrade c'era più di un monitor connesso. In tal caso, i recensori si saranno infine resi conto di quanto il consumo peggiori in tale situazione con queste schede.
http://www.hwupgrade.it/articoli/skvideo/4130/consumi_idle.png
78W - 49W = 29W di differenza, più o meno quella che c'è nel grafico dei consumi in multimonitor (della sola scheda, non dell'intero sistema) di Techpowerup che ho allegato nel precedente messaggio.
CrapaDiLegno
02-09-2014, 15:14
Tre suggerimenti, se possibile:
1. evitate di mettere la legenda sovrapposta ai grafici
2. mettere una tabella comparativa delle schede di test. Ho dovuto cercare in internet per sapere cosa monta la GTX760
3. usare una risoluzione che sia compatibile con la fascia delle schede in uso. La 2560x1440 non è una risoluzione né diffusa né adeguata per queste schede (sopratutto con 4x di AA)
Questa scheda ha poco senso dal punto di vista del consumatore, ma è una scheda necessaria ad AMD per cercare di aumentare i propri profitti.
Visto il ritardo delle future GPU a 16nm, probabilmente AMD non poteva più competere con NVIDIA sul piano dei costi quando quest'ultima riesce a competere con AMD con un chippetto più piccolo, meno caldo e più semplice nella circuiteria di supporto (384bit di bus sono davvero troppi per quella GPU, stesso errore commesso da ATI con l'R600 tempo addietro).
Tahiti è nato male e questo è l'epilogo. Troppo grande e con prestazioni non proporzionali né alla sua dimensione né al suo consumo.
Secondo me questa GPU non era prevista inizialmente da AMD, ma visto il protrarsi dei 28nm e l'alta competività delle schede basate su GK104, AMD ha dovuto piegare le orecchie e sfornare qualcosa che potesse competere nei costi. Ovvio che non ha quel plus che aveva Tahiti, ma ha anche un costo decisamente minore sia per lei che per gli assemblatori (meno potenza da dissipare, meno linee di memoria da collegare, meno memoria, meno VRM, meno tutto, insomma).
Si spera che per il futuro abbia qualcosa in più da offire, perché se la GTX750 è l'antipasto di quel che potrà offrire Maxwell, AMD è messa male con questa architettura.
CrapaDiLegno
02-09-2014, 15:20
Vero è che le soluzioni NVIDIA della famiglia Kepler vantano una notevole efficienza energetica ma in questo caso riteniamo che l'indicazione fornita, rilevata a monte dell'alimentatore e quindi influenzata da tutto il sistema, dipinga un quadro eccessivamente penalizzante per le schede AMD.
Scusate, non ho capito. La misurazione a monte dell'alimentatore favorisce il confronto con la scheda di nvidia, perché se togliamo anche la tara del consumo del sistema, il confronto tra la barretta della GTX760 (che diventa cortissima) e quelle delle schede AMD (che diventano meno corte) è enorme.
Concordo con gli altri che comunque qualcosa nel vostro set-up non funziona o avete usato una configurazione multi-monitor (problema noto da anni che AMD non ha mai risolto neanche con le ultime versioni di GCN) perché altrimenti non si capisce il motivo di consumi così elevati.
Scusate ma non si è scritto che in idle fino ai 65 gradi le ventole stanno spente? Come fa allora a fare rumore quanto le altre? Oppure hanno fatto un sistema che tiene le ventole spente sotto i 65 ma che col pc in ifle sta a 70?
ah no edito, è la serie asus strix che lo fa..... :-)
Tre suggerimenti, se possibile:
1. evitate di mettere la legenda sovrapposta ai grafici
2. mettere una tabella comparativa delle schede di test. Ho dovuto cercare in internet per sapere cosa monta la GTX760
3. usare una risoluzione che sia compatibile con la fascia delle schede in uso. La 2560x1440 non è una risoluzione né diffusa né adeguata per queste schede (sopratutto con 4x di AA)
Concordo perfettamente (soprattutto per le prime due), bisognerebbe fare attenzione a queste cose quando si fa una recensione.
Tahiti è nato male e questo è l'epilogo.
Questa è una trollata di bassa lega che francamente potevi risparmiarti.
Thaiti è ottimo da molti punti di vista, e le sue peculiarità lo rendono superiore alle concorrenti Nvidia in alcuni ambiti.
Pensa solo a quanto ha venduto per il mining, grazie a queste peculiarità. ;)
Scusate, non ho capito. La misurazione a monte dell'alimentatore favorisce il confronto con la scheda di nvidia, [...]
Rileggi bene la frase: non stava giustificando il risultato, stava semplicemente specificando come era stata presa la misurazione.
MiKeLezZ
02-09-2014, 15:37
mah.. hanno fatto una "nuova" scheda che viaggia come la vecchia e allo stesso prezzo. Perché?Consuma meno. Chiamasi rimpiazzo.
marchigiano
02-09-2014, 15:47
la gtx760 tra un po genererà corrente in idle :sofico:
la gtx760 tra un po genererà corrente in idle :sofico:
...che teoricamente sarebbe pure possibile eh... :eek:
Littlesnitch
02-09-2014, 16:14
Tre suggerimenti, se possibile:
1. evitate di mettere la legenda sovrapposta ai grafici
2. mettere una tabella comparativa delle schede di test. Ho dovuto cercare in internet per sapere cosa monta la GTX760
3. usare una risoluzione che sia compatibile con la fascia delle schede in uso. La 2560x1440 non è una risoluzione né diffusa né adeguata per queste schede (sopratutto con 4x di AA)
Questa scheda ha poco senso dal punto di vista del consumatore, ma è una scheda necessaria ad AMD per cercare di aumentare i propri profitti.
Visto il ritardo delle future GPU a 16nm, probabilmente AMD non poteva più competere con NVIDIA sul piano dei costi quando quest'ultima riesce a competere con AMD con un chippetto più piccolo, meno caldo e più semplice nella circuiteria di supporto (384bit di bus sono davvero troppi per quella GPU, stesso errore commesso da ATI con l'R600 tempo addietro).
Tahiti è nato male e questo è l'epilogo. Troppo grande e con prestazioni non proporzionali né alla sua dimensione né al suo consumo.
Secondo me questa GPU non era prevista inizialmente da AMD, ma visto il protrarsi dei 28nm e l'alta competività delle schede basate su GK104, AMD ha dovuto piegare le orecchie e sfornare qualcosa che potesse competere nei costi. Ovvio che non ha quel plus che aveva Tahiti, ma ha anche un costo decisamente minore sia per lei che per gli assemblatori (meno potenza da dissipare, meno linee di memoria da collegare, meno memoria, meno VRM, meno tutto, insomma).
Si spera che per il futuro abbia qualcosa in più da offire, perché se la GTX750 è l'antipasto di quel che potrà offrire Maxwell, AMD è messa male con questa architettura.
Vediamo di tenere queste boiate per i comizi elettorali e non spararle in un forum pubblico. Tahiti ha aperto il :ciapet: ad nVidia come non si vedeva da tempo, sicuramente il miglior chip di AMD negli ultimi 7-8 anni.
Poi evito di commentare il resto dell'idolatria ad nVidia che è meglio.
Dumah Brazorf
02-09-2014, 16:17
Paolo dopo lo scassamento per prendere tutti i valori e fare i grafici questi risultano di difficile visione, le linee sono tutte accavallate.
Secondo me dovreste dotarvi di qualche plug-in javascript/jquery e postare dei grafici dove è possibile selezionare/deselezionare le singole voci.
CrapaDiLegno
02-09-2014, 16:47
Questa è una trollata di bassa lega che francamente potevi risparmiarti.
Thaiti è ottimo da molti punti di vista, e le sue peculiarità lo rendono superiore alle concorrenti Nvidia in alcuni ambiti.
Pensa solo a quanto ha venduto per il mining, grazie a queste peculiarità. ;)
Ah, se lo dici tu allora ci crediamo tutti. Infatti per vendere, le schede basate su Tahiti dovevano costare meno di quelle basate su GK104.
E nelle configurazioni tagliate (quelle con i chippetti difettosi) il costo (non il prezzo) è ancora più alto rispetto alle soluzioni nvidia.
Il fatto che sia buono per il mining non ha alcun valore rispetto al fatto che vada bene solo per un determinato ambito ristretto e male in tutti gli altri che fanno introiti veri.
E il risultato è che è stato rimpiazzato con un chippetto più piccolo e più efficiente che performa quasi uguale ma che costa decisamente meno. E se usato nello stesso ambito favorevole a Tahiti anche Tonga darebbe gli stessi identici risultati. I 384 bit su questo chippetto non hanno senso ed è stato dimostrato (là dove servirebbe tutta quella banda sono gli shader che mancano).
Rileggi bene la frase: non stava giustificando il risultato, stava semplicemente specificando come era stata presa la misurazione.
Rileggo la frase e evidenzio:
ma in questo caso riteniamo che l'indicazione fornita [...] dipinga un quadro eccessivamente penalizzante per le schede AMD.
Le parole eccessivamente penalizzante non sono messe a caso (spero). Vorrebbero stare a significare che la misura condotta in modo diverso potrebbe descrivere una situazione diversa, ovvero meno penalizzante. Il che non è possibile, perché come detto se togli la misura del sistema il rapporto tra i consumi della scheda nvidia e quelle AMD aumentano di brutto. Perchè se di quei 49W 40 sono del sistema, la scheda nvidia ne consuma 9 e la migliore scheda AMD 38. 4 volte tanto.
GCN non è efficiente come la vecchia architettura VLIW nei giochi, e inoltre Tahiti non è la migliore implementazione della stessa. E costa molto. Un chip dalle pretese di grandi performance GPGPU che poi non ha trovato alcuno sbocco reale in nessuna soluzione.
Guarda dove invece nvidia ha messo il suo più piccolo e parsimonioso GK104. E a che prezzo lo vende. Non c'è stata alcuna competizione con nvidia da questo punto di vista, e saggiamente non avendo alcun senso per AMD continuare a correre con un cavallo morto, lo ha archiviato (forse un po' troppo tardi, ma a qunto pare i 16nm non sono comunque dietro l'angolo).
CrapaDiLegno
02-09-2014, 16:54
Vediamo di tenere queste boiate per i comizi elettorali e non spararle in un forum pubblico. Tahiti ha aperto il :ciapet: ad nVidia come non si vedeva da tempo, sicuramente il miglior chip di AMD negli ultimi 7-8 anni.
Poi evito di commentare il resto dell'idolatria ad nVidia che è meglio.
Sì certo, ha aperto il "didietro" a nvidia. La quale ha fatto 700 milioni di dollari di guadagno mentre la sezione GPU di AMD non è andata a pari.
Smettimao di valutare le cose per inutili fanboismi. Quando hai un chip che è più grande della concorrenza, consuma di più (e va be' ci può anche stare il tutto), ma poi lo devi svendere per poterlo piazzare sul mercato (che è la cosa peggiore) significa che non hai aperto il "ciufolo" a nessuno. Anzi.
Ripeto, vedi dove nvidia ha messo il suo GK104 e a che prezzi rispetto a Taihiti. Se questo è avere il migliore chip degli ultimi 7-8 anni significa che anche nella corsa alle GPU AMD è spacciata. Forse è il migliore chip di AMD degli ultimi 8 anni, ma il confronto con la concorrenza (che è progradita a razzo dopo Fermi) rimane impietoso.
appleroof
02-09-2014, 17:07
Paolo dopo lo scassamento per prendere tutti i valori e fare i grafici questi risultano di difficile visione, le linee sono tutte accavallate.
Secondo me dovreste dotarvi di qualche plug-in javascript/jquery e postare dei grafici dove è possibile selezionare/deselezionare le singole voci.
Quoto
Ah, se lo dici tu allora ci crediamo tutti. Infatti per vendere, le schede basate su Tahiti dovevano costare meno di quelle basate su GK104.
E nelle configurazioni tagliate (quelle con i chippetti difettosi) il costo (non il prezzo) è ancora più alto rispetto alle soluzioni nvidia.
Il fatto che sia buono per il mining non ha alcun valore rispetto al fatto che vada bene solo per un determinato ambito ristretto e male in tutti gli altri che fanno introiti veri.
E il risultato è che è stato rimpiazzato con un chippetto più piccolo e più efficiente che performa quasi uguale ma che costa decisamente meno. E se usato nello stesso ambito favorevole a Tahiti anche Tonga darebbe gli stessi identici risultati. I 384 bit su questo chippetto non hanno senso ed è stato dimostrato (là dove servirebbe tutta quella banda sono gli shader che mancano).
Rileggo la frase e evidenzio:
Le parole eccessivamente penalizzante non sono messe a caso (spero). Vorrebbero stare a significare che la misura condotta in modo diverso potrebbe descrivere una situazione diversa, ovvero meno penalizzante. Il che non è possibile, perché come detto se togli la misura del sistema il rapporto tra i consumi della scheda nvidia e quelle AMD aumentano di brutto. Perchè se di quei 49W 40 sono del sistema, la scheda nvidia ne consuma 9 e la migliore scheda AMD 38. 4 volte tanto.
GCN non è efficiente come la vecchia architettura VLIW nei giochi, e inoltre Tahiti non è la migliore implementazione della stessa. E costa molto. Un chip dalle pretese di grandi performance GPGPU che poi non ha trovato alcuno sbocco reale in nessuna soluzione.
Guarda dove invece nvidia ha messo il suo più piccolo e parsimonioso GK104. E a che prezzo lo vende. Non c'è stata alcuna competizione con nvidia da questo punto di vista, e saggiamente non avendo alcun senso per AMD continuare a correre con un cavallo morto, lo ha archiviato (forse un po' troppo tardi, ma a qunto pare i 16nm non sono comunque dietro l'angolo).
Mi pare un giudizio troppo penalizzante, è chiaro che tutto dipende dalle scelte strategiche delle due aziende, la gcn pare fosse molto più adatta della vliw per le apu e l'hsa per dirne una... con questa premessa AMD ha dato vita ad un chip che tutto sommato rappresenta un eccellente compromesso a 360 gradi, dal gaming al gpgpu, mentre Nvidia con le sue scelte architetturali ad un certo punto si è trovata a dover differenziare l'offerta con chip che eccellono in alcuni campi (come il gaming per gk104) ma non in altri (gpgpu ed in particolare in DP) e tutto sommato sono al livello o addirittura inferiori in altri (gk110 nel gaming e nel gpgpu rispetto ad Hawaii)
Che poi AMD si sia mossa un po' più tardi nel cambiare rotta e nel frattempo Nvidia aveva creato l'ecosistema adatto a vendere le tesla e le quadro, oppure per restare al gaming abbia scelto un'architettura più facile da programmare e supportare, non attiene alla bontà o meno intrinseca dei chip... Secondo me entrambi come chip in sè offrono prodotti di eccellente livello, poi uno sceglie l'uno o l'altro a seconda di altri aspetti o esigenze
In questo contesto onestamente non saprei però collocare Tonga: pare sia più grande di Tahity nonostante il bus più piccolo, va solo poco più del chip che sostituisce consumando pochissimo meno, non si può definire un "testchip" per un nuovo PP, mah...
CrapaDiLegno
02-09-2014, 17:34
Le strategie delle due società sono chiare da dopo il G200 (l'architettura fallimentare di nvidia) che ha tentato di fare quello che sta facendo oggi AMD: un chip in grado di far tutto che consuma una tonnellata di corrente e non eccelle in niente.
Il problema non è GCN, ma come AMD la usa.
Tahiti è un chip a metà strada tra un chip ottimo per GPGPU e per gaming. Ma mentre per la prima soluzione non è efficiente come il GK110 (che viene venduto come il pane) anche nel gaming non eccelle per quello che consuma. E quello che costa.
Tahiti è nato male. Punto. Non è né carne né pesce e non ha trovato il giusto valore sul mercato in nesun campo in cui è stato proposto: nel gaming battuto da un chippetto più piccolo, semplice, meno affamato di energia, nel GPGPU da un chip più costoso ma più efficiente (che è una caratteristica fondamentale negli server HPC) e che, DP a parte, fa fatica a tenere il passo anche del chippetto da gioco che nel SP ha l'efficienza più alta mai raggiunta finora (e Maxwell sembra batterà di brutto anche questa caratteristica di Kepler).
Gli altri chip di categoria inferiore di AMD concorrono efficacemente contro nvidia per costi, consumi e prestazioni, ma Tahiti no. E' esattamsnte come il G200 di nvidia di qualche anno addietro. Grande, grosso, con velleità di poter far molto ma alla fine poco efficiente in tutto. Da lì infatti nvidia ha splittato le caratteristiche dei suoi prodotti.
Chi non riconsoce il fallimento di Tahiti non ha capito cosa è e cosa deve fare una GPU per l'azienda che la produce: deve far fare soldi. Perché è inutile avere il meglio del meglio in assoluto per quanto riguarda le caratteristiche assolute sulla carta ma poi non riuscire a venderlo al prezzo che dovrebbe perché non lo vuole nessuno. AMd non vive in un monopolio. Il confronto con la concorrenza è obbligatorio. E dopo due anni e mezzo dalla sua presenazione è chiaro, a chi sa leggere 4 numeri in croce, che Tahiti è stato un fallimento sotto molti punti di vista (è stato pure impossibile creare una dual che non fondesse diversamente da tutte le precedenti dual di AMD che avevano una efficienza maggiore rispetto alla concorrenza).
Se poi uno vuole dire che è un bel chip potente, lo dica pure, nessuno lo può negare. Che non dimentichi però che la concorrenza esiste e che le sue soluzioni si sono mostrate migliori (con prodotti diversi) nei campi in cui sono stati piazzati.
L'FX 8350 è un chip, che preso da solo, è una bestia incredibile. Quando però lo metti di fianco alle soluzioni della concorrenza vince solo per il prezzo. Che è un prezzo (insieme a tutti i prodotti derivati) che fa fare conti in rosso ad AMD. Bello è bello di per sè. Sulla carta. Rispetto ad un P4 che consuma uguale è una cosa stravolgente e immensamente più potente. Ma oggi è un fallimento completo.
The3DProgrammer
02-09-2014, 17:41
mi sa che ti devi riguardare un attimino i bench di gk104 vs tahiti
http://www.anandtech.com/bench/product/772?vs=768
che poi la concorrenza abbia prodotto un chip che gli ha permesso di guadagnare + soldi puo' anche essere vero, ma sinceramente nei costi credo non siano tanto i 20mm2 del chip in meno a fare la differenza quanto i 384 del bus della memoria.
Comunque dire che tahiti e' stato un flop e' grossa eh...
The3DProgrammer
02-09-2014, 17:44
L'FX 8350 è un chip, che preso da solo, è una bestia incredibile. Quando però lo metti di fianco alle soluzioni della concorrenza vince solo per il prezzo. Che è un prezzo (insieme a tutti i prodotti derivati) che fa fare conti in rosso ad AMD. Bello è bello di per sè. Sulla carta. Rispetto ad un P4 che consuma uguale è una cosa stravolgente e immensamente più potente. Ma oggi è un fallimento completo.
cioe' stai confrontando una CPU che in single thread va quanto un athlon di 5 anni fa a una scheda che e' alla pari con la gtx 770 costando meno? Stai scherzando vero?
The3DProgrammer
02-09-2014, 17:46
(parlo della 280x quando dico che va quanto la 770)
carlottoIIx6
02-09-2014, 18:04
amd completa la gamme che aveva inziato con le nuove schede video.
ora ha tutta la gamma aggiornata. inutile aspettarsi miracoli senza i 20nm.
Ah, se lo dici tu allora ci crediamo tutti. [...]
Mapercortesia... e dovrebbero credere a te allora? :asd:
Hai sparato una trollata da Re dei Troll e francamente mi chiedo come ancora certi interventi scatena flame siano ancora tollerati in questo forum.
La bontà di un'architettura non si misura solo sulla dimensione del chip, e tu lo sai bene.
Nvidia vende tanto e si permette prezzi alti perchè da una parte ha molta utenza fidelizzata. dall'altra offre alcune caratteristiche esclusive.
O vogliamo parlare di quando era Nvidia ad avere i chipponi grossi e poco efficienti, ma vendeva comunque? (no, io non ne voglio parlare, era retorico).
Rileggo la frase e evidenzio:[...]
Rileggi senza evidenziare.
Viene semplicemente detto che il risultato della misurazione (che è misurata a monte dell'alimentatore) è molto penalizzante per AMD. Il risultato (il "quadro") è penalizzante, non la metodologia di test.
Probabilmente "penalizzante" in questo caso non è il termine più adatto, ma il senso della frase è quello.
E il risultato è che è stato rimpiazzato con un chippetto più piccolo e più efficiente che performa quasi uguale ma che costa decisamente meno. [...]
Guarda dove invece nvidia ha messo il suo più piccolo e parsimonioso GK104. E a che prezzo lo vende. Non c'è stata alcuna competizione con nvidia da questo punto di vista, e saggiamente non avendo alcun senso per AMD continuare a correre con un cavallo morto, lo ha archiviato (forse un po' troppo tardi, ma a qunto pare i 16nm non sono comunque dietro l'angolo).
LOL, ma che film ti sei proiettato in testa?
AMD ha sostituito thaiti semplicemente perchè dopo tanto tempo ha prodotto una nuova revisione di GNC e sta facendo uscire le nuove schede. Con questa ha completato la revisione della fascia media e alta.
Con lo stesso principio, se Nvidia era così in vantaggio, che motivo aveva di sostituire kepler con maxell? L'ha rottamato perchè faceva schifo? Non mi pare.
Vabbè, ormai si è capito l'andazzo, non ho affatto intenzione di proseguire questo discorso, la trollata è troppo evidente.
io volevo tra le schede del confronto anche la 750ti che mi ispira molto sia per i consumi che per la rumorosità
qualcuno ha visto i bench rispetto a 760 e 280-285 ?
BrodoDiGhiande
02-09-2014, 20:01
Per quanto riguarda i consumi potete guardare la recensione di tom's hardware (in inglese) dove non hanno contato i consumi alla presa, che aggiunge fin troppe variabili, ma hanno misurato singolarmente PCIe e PEG.
Free Gordon
02-09-2014, 20:02
E' sempre difficile fare un chip che sappia fare bene tutto... certo...
AMD con Tahiti/GCN ha cercato questo compromesso, a mio avviso facendo un buon lavoro. :)
Credo che Tahiti combatta ad armi pari prezzo/prestazioni con il GK104 e penso che Hawai (anche se in grosso ritardo) sia un buon concorrente lato gaming della 780.
Certo, se guardiamo l'aspetto dei consumi è certamente meglio avere 2 chip diversi, ottimizzati per il lavoro che devono fare (gioco o calcolo puro) e strutturati per avere la migliore efficienza energetica su ogni fronte.
Probabilmente AMD in questa tornata ha scelto la prima strada perchè ci sono di mezzo le APU e avere 2 archi leggermente diverse avrebbe solo complicato tutto a livello software. GCN è un'ottima architettura per le APU ed è stata inserita anche nelle GPU di fascia alta. :)
Vliw4 era più efficiente solo per il gaming, anche di GK104.... :D ma evidentemente a livello driver avrebbe portato troppi casini in futuro e problemi sulle APU.
Ale55andr0
02-09-2014, 20:57
positivo: l'efficienza del nuovo memory controller è notevole, incredibile come pur con minor bandwidth in certi titoli pesanti e a 1440p mette dietro la sorella con maggior banda e clock della gpu :)
negativo: ma dov'è questa maggior efficienza nei consumi? :stordita:
totale: miglioramento tecnico dell'architettura confermato sulle prestazioni di certe parti del chip, ma sostanzialmente inutile allo stato attuale; tornerà buono per la prossima tornata di schede, se però miglioreranno ulteriormente l'architettura sotto altri aspetti
...la 7970 un flop è la più grossa caxxata che io abbia mai letto da molti mesi a questa parte, ma oramai a quei due/tre soliti noti onnipresenti nelle news AMD con UN PRECISO SCOPO ci ho fatto il callo :D.
passo e chiudo :)
emahwupgrade
02-09-2014, 22:13
Volevo segnalarvi che uscirà a breve una versione particolarmente adatta per sistemi compatti:
http://www.sapphiretech.com/presentation/product/?cid=1&gid=3&sgid=1227&pid=2444&psn=000101
La sto tenendo d'occhio per assemblare un piccolo htpc da gioco a risoluzione full HD da collegare al televisore in salotto.
Inviato dal mio Nexus 7 con Tapatalk 2
CrapaDiLegno
03-09-2014, 01:31
Mi piacerebbe capire come fate a valutare un prodotto. Per simpatia? Perché è più bello? Perché è strapotente secondo i vostri parametri di utilizzo (ovvero gioco)? Quali sono i vostri metri di giudizio? Io guardo i fatti. Magari li leggo male, ma non è elencandomi inutili statistiche di numeri sulla carta che si fa un prodotto vincente.
Ne ho lette tante qui che metà basta perché vi siano molti dubbi sul fatto che alcuni di voi che commentano continuamente in modo positivo qualsiasi cosa faccia AMD abbiano mostrato di capire qualcosa anche nelle evoluzioni recenti: dalle APU per console che avrebbero fatto guadagnare miliardi (letteralmente qualcuno pensava proprio cifre a 9 zeri) all'anno ad AMD, al fatto che in alti thread giusto ieri e oggi si legge di gente ancora convinta che l'FX 8350 sia una CPU fantastica che regge ancora il passo anche verso i nuovi Haswell-E (e sai costa meno... ma guarda un po', però se volete ho dei P3 e Athlon 64 gratis qui, pensate che affare che fate a portarvene via uno al posto di un FX), di gente che crede che l'HSA salverà il mondo dalla fame a quelli che, vedo oggi, credono che Tahiti sia una GPU riuscita.
Riuscita in cosa? Nei numeri sulla carta forse. Applicazioni d'uso reali che sono quelli che fanno guadagnare l'azienda che la produce? I vostri 60fps in BF3 non sono il metro di giudizio per capire se un prodotto è buono rispetto alla concorrenza o meno, lo sapete? Ve ne rendete conto?
E parlate di tecnologia, di architettura, di potenzialità, un inutile confronto Kepler vs Maxwell nella fascia base, di aprire il ciufolo alla concorrenza, salvo poi non voler vedere che il successo di un prodotto è tutt'altra cosa.
Forse anche questa volta vi siete persi qualche capitolo per strada nella vana speranza di vedere solo il bello della cosa (i numeri sulla carta), di etichettare "TROLL" qualsiasi si permetta di aprirvi gli occhi e quindi di salire appena possibile sul carro di lanciatori di pietre (e più si è, si sa, più ci si sente rassicurati sulle proprie convinzioni anche quando numeri e realtà dicono tutt'altro).
Non saranno i 20-30mm^2 a fare la differenza del prezzo e della resa del chip? Magari no. Forse i 50W di differenza? Magari neanche quelli. Ma il top gamma di AMD è stato per mesi (diciamo anche un paio di anni) a rivaleggiare con un chippetto più piccolo, meno costoso, che montato su una scheda fa costare il tutto molto meno (PCB, memoria, raffreddamento, componenti) e, sorpresa delle sorprese per chi guardava solo una parte della vetrina ignorando l'altra, il cartellino di questa ultima scheda era più alto! E vendeva lo stesso!
Chi ha postato i benchmark di Anandtech si faccia un'altra lettura più attenta e faccia una valutazione di questo tipo: chippetto di fascia media con bus più stretto, tiratogli il collo (quindi con una efficienza non propriamente spettacolare) va quasi uguale (non dico uguale sennò viene giù il mondo) e consuma meno in tutti i test se non quelli OpenCL. Test utili come una banana lessa sui maccheroni, visto che il confronto è fatto con benchmark di utilità pari a zero. E nei benchmark con applicazioni reali dove si sfrutta davvero il chip il rapporto W/Flops in SP non ha paragoni con nient'altro. Tanto che è il GK104 ad essere montato su una scheda tesla (prima volta in assoluto che su una Tesla entra un chippetto di fascia media invece che il solito super pizzone da millemila millimetri quadri e altrettanti dollari).
Il top di gamma che avrebbe dovuto essere venduto con un costo bonus rispetto alla concorrenza costretto ad essere ridimensionato dopo il lancio del chippetto (meno di 3 mesi). Chippetto che è venduto al doppio del prezzo di quello che andava a sostituire.
Non capisco, davvero, dove sta il successo di AMD con Tahiti. E' stato Tahiti a permettere a nvidia di competere con un chippettino quando non era pronto il "bestio" che è stato completato in tutta calma, diversamente da quello che era successo con la versione 1 di Fermi.
E' stato Tahiti a permettere a nvidia di vendere il chippettino a prezzi mai visti prima, tanto da riuscire a creare una nuova classe di schede video che prima non c'era, quella dell'ultra enthusiast da 700 euro (manco la incontrastata dominatrice del tempo, la GT8800 Ultra costava tanto). E quindi di seguito la linea delle super ultra enthusiast/semi pro (se così si può definire) con il GK110 e prezzi ancora più folli.
E' stato Tahiti che non ha permesso di creare una dual decente a AMD (per la prima volta AMD ha dimostrato che piccolo e bello sono state una grande bugia venduta felicemente all'utenza per anni).
E' il GK104 che è entrato in una Tesla per essere venduto a prezzi folli perché super efficientissimi nei calcoli SP. Quante schede con Tahiti sono montate sui server HPC? O in quelli cloud dove nvidia ha piazzato i suoi GK104 a palate?
E' Tahiti che ha fatto sogghignare nvidia al suo lancio e non per niente: hanno capito subito che il GK104, il concorrente di Tahiti, era il nuovo G92: la miniera d'oro che li avrebbe tenuti a galla per i successivi anni fino a quando non sarebbe stato necessario far debuttare la mattonella. E così infatti è stato.
In un mercato a 2, dove c'è il tiro alla fune, non si può vincere entrambi. Non ci sono giri di parole che si possono fare per far apparire una cosa come quella che non è. Se uno guadagna, l'altro perde, non ci sono alternative.
Chi vede in Tahiti un successo mi dica allora che cosa è il GK104, il suo diretto concorrente (o meglio, quello che con gran felicità di nvidia è diventato tale). E' lui il flop di nvidia?
Per chi si è fermato qualche stazione fa, il chip basato su Maxwell non soppianta il GK104. Ma il GK106 che soffre di più (per costi) nel competere con i chip di seconda fascia di AMD, dove un GK106 troppo castrato costa comunque troppo ad nvidia rispetto ad un GK108 rifatto più pompato ed efficiente... quindi se in basso il GK106 lascia il posto al GM107, guardate un po' chi va a prendere il posto prima occupato dal GK106 completo? Già proprio lui, il fallimento di nvidia (e lo è se Tahiti è un successo) che viene castrato di brutto ma rimane competitivo in termini di costi anche in quella fascia... e provate a pensare un po' il perché? Forse perché il costo del GK104 non è tanto diverso da quello del GF104 che era montato sulle schede dove nella sua versione completa costava meno del GK106?
Già, ma è Tahiti il successone. Me ne ero scordato.
Potete inventarvi di tutto, numero dei transistor, watt, teraflops, millimetri quadri, qualsiasi cosa volete, i fatti dicono che il è il GK104 ad aver aperto il "ciulo" a AMD che non si aspettava di certo di rimanere incollata ad un chip di fascia inferiore della concorrenza e di aver perso il treno che poi nvidia ha sfruttato perfettamente: quello della vendita premium di una serie di schede che prima non esistevano a quel prezzo (ovvero dalla 780 in su).
Con Tahiti si è ribaltata la situazione per AMD: prima era lei che disturbava nvidia da dietro con chippettini più piccoli ma molto più efficienti (nei giochi). E nvidia soffriva la cosa perché ovviamente competere con una piastrella pronta e completa per il GPGPU contro un chip anche 100mm^2 più piccolo non è facile. Ma, marketing, prestazioni, scelta giusta del colore delle scatole o quel che volete, nvidia ce la faceva lo stesso a vendere di più a prezzo maggiore.
Figuriamoci quando con "il successone Tahiti" è stata nvidia che si è trovata non a pizzicare il di dietro di AMD con un chip più piccolo ed efficiente, ma proprio ad entrarci dentro sfondandolo.
Un trionfo che si è mostrato tutto in quello che abbiamo visto (per chi non si è addormentato nel frattempo). Prezzi delle schede enthusiast fuori di melone senza alcun accenno alla discesa fino, guarda un po', al lancio di Hawaii, il faticosissimo step oltre Tahiti.
E sì grazie Tahiti, se non ci fossi stato tu il prezzo delle schede nvidia sarebbe schizzato a mille euro per una 780. Fortuna che c'eri tu, altrimenti i bei vecchi tempi con i ribassi mensili continui sarebbero stati cancellati dalle nostre menti. Sarai ricordato tra qualche anno come un successone, quello che ha impedito il dilagare delle soluzioni e dei prezzi da parte di nvidia, quello che si è contrapposto nel mercato consumer come in quello professionale a quell'aborto di GK104 che non reggeva il confronto in niente e che nvidia ha dovuto svendere continuamente per riuscire a piazzarlo sul mercato.
Il tuo successo sarà come quello dell'R670, altro gioiello che ha impedito nvidia di fare una scheda come la GTX8800 Ultra a prezzi mai visti e che, ugualmente al G92, derivato scrauso del ben più potente G80, è stato continuamente riproposto in più generazioni di schede per la sua immensa efficienza.
Il tuo successo, pari solo ai guadagni che hai reso ad AMD, sarà ricordato negli annali come il miglior chip mai costruito fino a questo momento.
Si sa, la storia, come i fatti, è tutta una questione di interpretazione personale.
AceGranger
03-09-2014, 09:19
amd completa la gamme che aveva inziato con le nuove schede video.
ora ha tutta la gamma aggiornata. inutile aspettarsi miracoli senza i 20nm.
mi pare che nVidia con la 750 in rapporto prestazioni/consumi abbia fatto un piccolo "miracolo" rimanendo sullo stesso pp, e ora vedremo come saranno le nuove GPU in uscita a breve.
qua siamo al limite del rimarchiamento è il solito brodino, va uguale, a volte pure peggio e consuma uguale; praticamente una GPU che se non avessero presentato nessuno ne avrebbe sentito la mancanza; mi sarei aspettato almeno un miglioramento dei consumi.
Littlesnitch
03-09-2014, 09:43
mi pare che nVidia con la 750 in rapporto prestazioni/consumi abbia fatto un piccolo "miracolo" rimanendo sullo stesso pp, e ora vedremo come saranno le nuove GPU in uscita a breve.
qua siamo al limite del rimarchiamento è il solito brodino, va uguale, a volte pure peggio e consuma uguale; praticamente una GPU che se non avessero presentato nessuno ne avrebbe sentito la mancanza; mi sarei aspettato almeno un miglioramento dei consumi.
No nVidia con la 750 ha buttato tanto fumo negli occhi per farla sembrare un miracolo. Ma se scavi più a fondo non è esattamente così.
Certo mAxwell sembra portare incrementi tangibili come potenza e anche una riduzione dei consumi, ma non è detto che se un prodotto di fascia bassa consuma poco quello di fascia alta faccia altrettanto. Sulla 750 hanno giocato con la cache enorme e con il posizionamento creato ad hoc. Se dovessero mentenere quelle proporzioni di cache per cuda core allora ne ricaverebbero chip enormi e improponibili, quindi è lecito aspettarsi un rapporto prestazioni-consumi peggiore di quello della 750. Poi se riescono a mantenerlo tutto di guadagnato per noi, ma ho seri dubbi che sarà così.
Free Gordon
03-09-2014, 09:44
una cosa che non capisco sono i consumi di questa 285..
Con un bus più piccolo e meno frequenza dovrebbero esser più bassi. Credo non si siano sbattuti più di tanto nell'ottimizzarli, a questo punto.
Più che altro gli serviva fare un chip più economico da produrre rispetto a Tahiti.
Mi piacerebbe sapere quanto è grosso questo Tonga, non si sa nulla per ora...
Littlesnitch
03-09-2014, 09:49
Mapercortesia... e dovrebbero credere a te allora? :asd:
Hai sparato una trollata da Re dei Troll e francamente mi chiedo come ancora certi interventi scatena flame siano ancora tollerati in questo forum.
La bontà di un'architettura non si misura solo sulla dimensione del chip, e tu lo sai bene.
Nvidia vende tanto e si permette prezzi alti perchè da una parte ha molta utenza fidelizzata. dall'altra offre alcune caratteristiche esclusive.
O vogliamo parlare di quando era Nvidia ad avere i chipponi grossi e poco efficienti, ma vendeva comunque? (no, io non ne voglio parlare, era retorico).
Rileggi senza evidenziare.
Viene semplicemente detto che il risultato della misurazione (che è misurata a monte dell'alimentatore) è molto penalizzante per AMD. Il risultato (il "quadro") è penalizzante, non la metodologia di test.
Probabilmente "penalizzante" in questo caso non è il termine più adatto, ma il senso della frase è quello.
LOL, ma che film ti sei proiettato in testa?
AMD ha sostituito thaiti semplicemente perchè dopo tanto tempo ha prodotto una nuova revisione di GNC e sta facendo uscire le nuove schede. Con questa ha completato la revisione della fascia media e alta.
Con lo stesso principio, se Nvidia era così in vantaggio, che motivo aveva di sostituire kepler con maxell? L'ha rottamato perchè faceva schifo? Non mi pare.
Vabbè, ormai si è capito l'andazzo, non ho affatto intenzione di proseguire questo discorso, la trollata è troppo evidente.
Lasciamolo continuare, almeno ci facciamo un po di risate! Tahiti flop è la più grossa cag*** mai sparata su un forum :D
CrapaDiLegno
03-09-2014, 10:02
Lasciamolo continuare, almeno ci facciamo un po di risate! Tahiti flop è la più grossa cag*** mai sparata su un forum :D
Essendo il GK104 il suo diretto concorrente, o è un flop Tahiti o lo è il GK104. In un mercato in contrazione non c'è spazio perché ambedue siano un sucesso.
Lo so che probabilmente prima ho scritto un papiro troppo lungo perché tu lo possa comprendere tutto in poco tempo, ma uno sforzino magari per dire la tua con fatti concreti non sarebbe male.
Dammi un numero o dei fatti che mi dimostri che Tahiti non è uno flop. Io ho riportato quello che nvidia è riuscita a fare con il GK104 vs Tahiti. Dimmi tu dove stanno i punti di forza che rendono quest'ultimo un "successone" per AMD.
Finora ho visto solo frasi di derisione e nulla più verso il mio pensiero, che può anche essere sbagliato, ma certo non si liquida con "trollata del secolo" e basta.
Più che i commenti argomentati che vi danno fastidio (o non riuscite a capire), ad essere censurati dovrebbero essere proprio questo tipo di provocazioni da bambinetto con le mani sporche di Nutella che dimostrano che sei salito sul carro dei lapidatori ma non sai giustificare il perché.
Certo che dopo le affermazioni sui miliardi dei SoC per console, i miracoli di HSA, la sezione GPU di AMD che tiene in piedi tutta la baracca (quante volte l'ho letto) e 8350 vs Haswell-E ormai uno si aspetta di leggere di tutto qui. Magari anche qualcosa di divertente sul perché Tahiti è un "successone".
Spero mi rendiate felice.
@OptimisAI
Pure tu sei invitato a dare qualche indicazione che non sia "perché mi piace AMD e non ti è permesso criticarla". Che è un po' la moda che va forte ultimamente nei forum.
AceGranger
03-09-2014, 10:10
No nVidia con la 750 ha buttato tanto fumo negli occhi per farla sembrare un miracolo. Ma se scavi più a fondo non è esattamente così.
Certo mAxwell sembra portare incrementi tangibili come potenza e anche una riduzione dei consumi, ma non è detto che se un prodotto di fascia bassa consuma poco quello di fascia alta faccia altrettanto. Sulla 750 hanno giocato con la cache enorme e con il posizionamento creato ad hoc. Se dovessero mentenere quelle proporzioni di cache per cuda core allora ne ricaverebbero chip enormi e improponibili, quindi è lecito aspettarsi un rapporto prestazioni-consumi peggiore di quello della 750. Poi se riescono a mantenerlo tutto di guadagnato per noi, ma ho seri dubbi che sarà così.
vedremo come saranno le prossime in uscita, fra 16 giorni lo sapremo :);rimane il fatto che almeno con la 750, va come il precedente modello, costa simile ma consuma meno.
CrapaDiLegno
03-09-2014, 11:04
Perchè?
Non ho ancora letto una riga che sa una che sconfessi quello che ho detto io.
Imparate a distinguere le preferenze personali da quelli che sono i fatti.
Diversamente da te io trovo Tonga perfettamente plausibile come soluzione. Costa meno ad AMD e va uguale a Tahiti. Avrebbe dovuto farlo prima.
sundraw83
03-09-2014, 11:22
Due giorni fa ho prenotato una msi 280x gaming a 230 euro. Le 280 lisce si trovano ben al di sotto dei 190 euro. Ad oggi è chiaro che la serie 280 diventa un best buy per la fascia di prestazioni in cui si pone. Sostanzialmente la 285 ha dato un taglio ai consumi con qualche miglioria tecnica non eclatante. E la 285x chissà cosa ci mostrerà?
A questo punto è meglio ricercare il best buy..
Littlesnitch
03-09-2014, 11:27
vedremo come saranno le prossime in uscita, fra 16 giorni lo sapremo :);rimane il fatto che almeno con la 750, va come il precedente modello, costa simile ma consuma meno.
Ni, controlla bene tutte le specifiche delle schede ;) C'è un 10-15% di potenza in più e una riduzione dei consumi che sembra notevole, ma vedremo nelle prossime schede se questo verrà confermato. Comunque credo che anche AMD non abbia dormito in questi 2 anni e la risposta sarà all'altezza. Anche se fino al nuovo PP credo che non vedremo miracoli.
pierluigip
03-09-2014, 11:35
interessante il comportamento in wolfestein rispetto alla 7970 e 289x
http://www.techpowerup.com/reviews/Sapphire/R9_285_Dual-X_OC/21.html
idtech e' open gl , hanno fatto miglioramenti in opengl ?
http://tpucdn.com/reviews/Sapphire/R9_285_Dual-X_OC/images/wolfenstein_1920_1080.gif
Ale55andr0
03-09-2014, 11:53
se avessero migliorato la resa in open gl sarebbe una questione di driver&software, non di hardware. Certi risulati imho mostrano soltanto che con questo nuovo memory controller hanno aumentato "i cavalli per litro". Va comunque considerata anche l'unità tessellatin migliorata, ma quella dovrebbe influire solo quando si usa il relativo effetto
pierluigip
03-09-2014, 12:00
se avessero migliorato la resa in open gl sarebbe una questione di driver&software, non di hardware. Certi risulati imho mostrano soltanto che con questo nuovo memory controller hanno aumentato "i cavalli per litro". Va comunque considerata anche l'unità tessellatin migliorata, ma quella dovrebbe influire solo quando si usa il relativo effetto
parlo da ignorante
ma se avessero messo in hardware dellle versioni piu' recenti di estensioni delle open gl ? quelle chiamate gl_Ext
MiKeLezZ
03-09-2014, 12:26
Non mi stancherò mai di farlo presente... sembra che la maggior parte dei recensori con le schede video ci giochi e basta.
http://i.imgur.com/YazAVZi.png
http://www.techpowerup.com/reviews/Sapphire/R9_285_Dual-X_OC/23.html
Nel caso volessi lavorare con due monitor attivi, questa R9 285 consumerebbe 25W in più in idle rispetto alla più vicina concorrente NVidia. E' praticamente come avere un altro monitor acceso, solo per il fatto di avere l'output su schermi multipli.
Aggiungo che a questo punto ogni mia speranza in merito a possibili miglioramenti in questo senso da parte di AMD, cade, a meno che non sia prevista l'uscita di ulteriori schede dall'architettura GCN migliorata nel futuro prossimo, magari di fascia più bassa così non si sovrappongono con questa.Passai a NVIDIA proprio perché oramai l'utilizzo multimonitor è standard (fosse anche un monitor e la TV) e appunto un consumo in idle di 25W in più è ridicolo.
Ma se non ricordo male è anche un problema di impostazioni di clock della scheda, per cui basta smanettare col firmware...
Il problema è che non so se queste ultime generazioni di schede possano farlo e quindi la via NVIDIA resta preferibile.
Littlesnitch
03-09-2014, 12:30
Passai a NVIDIA proprio perché oramai l'utilizzo multimonitor è standard (fosse anche un monitor e la TV) e appunto un consumo in idle di 25W in più è ridicolo.
Ma se non ricordo male è anche un problema di impostazioni di clock della scheda, per cui basta smanettare col firmware...
Il problema è che non so se queste ultime generazioni di schede possano farlo e quindi la via NVIDIA resta preferibile.
Beh proprio standard non direi. Comunque resta il fatto che c'è questo bug che si ostinano a non correggere dove la GPU sale di freq in modo esagerato con 2 o più monitor anche per non far nulla. E smanettare con i BIOS oltre ad essere una rottura è off limits per gran parte dell'utenza.
Passai a NVIDIA proprio perché oramai l'utilizzo multimonitor è standard (fosse anche un monitor e la TV) e appunto un consumo in idle di 25W in più è ridicolo.
Ma se non ricordo male è anche un problema di impostazioni di clock della scheda, per cui basta smanettare col firmware...
Il problema è che non so se queste ultime generazioni di schede possano farlo e quindi la via NVIDIA resta preferibile.
Effettivamente in multimonitor con la mia Radeon aumenta la frequenza della GPU di qualcosa e quella delle memorie al livello che avrebbero nelle applicazioni 3D attive. Provando a diminuirle manualmente però la scheda diventa instabile e si manifesta del flickering in misura tanto maggiore quanto più bassa è la frequenza impostata. Di fatto non è possibile riportare la frequenza ai livelli che si avrebbero con monitor singolo perché si rischia di far andare il sistema in freeze o far corrompere la videata in maniera semi-permanente (fino al reboot successivo).
Se c'è ancora questa disparità di consumi con le AMD più recenti vorrà dire che questo problema ancora persiste e che quindi non è possibile diminuire le frequenze in multimonitor senza artefatti o mantenendo stabilità.
In ogni caso, su Windows si può anche provare (piuttosto facilmente), su Linux è un problema che si aggiunge a quelli già presenti dal punto di vista dei driver (sia open che closed) e che quindi farebbe piacere potere evitare.
Meh... sta scheda non mi dice niente...
Mi sa che rimango su HD7950 finchè sto in fullHD... prossima scheda mi sa che sarà a scelta tra una Rx 3xx e GTX9xx
Einhander
03-09-2014, 15:40
Tre suggerimenti, se possibile:
1. evitate di mettere la legenda sovrapposta ai grafici
2. mettere una tabella comparativa delle schede di test. Ho dovuto cercare in internet per sapere cosa monta la GTX760
3. usare una risoluzione che sia compatibile con la fascia delle schede in uso. La 2560x1440 non è una risoluzione né diffusa né adeguata per queste schede (sopratutto con 4x di AA)
Questa scheda ha poco senso dal punto di vista del consumatore, ma è una scheda necessaria ad AMD per cercare di aumentare i propri profitti.
Visto il ritardo delle future GPU a 16nm, probabilmente AMD non poteva più competere con NVIDIA sul piano dei costi quando quest'ultima riesce a competere con AMD con un chippetto più piccolo, meno caldo e più semplice nella circuiteria di supporto (384bit di bus sono davvero troppi per quella GPU, stesso errore commesso da ATI con l'R600 tempo addietro).
Tahiti è nato male e questo è l'epilogo. Troppo grande e con prestazioni non proporzionali né alla sua dimensione né al suo consumo.
Secondo me questa GPU non era prevista inizialmente da AMD, ma visto il protrarsi dei 28nm e l'alta competività delle schede basate su GK104, AMD ha dovuto piegare le orecchie e sfornare qualcosa che potesse competere nei costi. Ovvio che non ha quel plus che aveva Tahiti, ma ha anche un costo decisamente minore sia per lei che per gli assemblatori (meno potenza da dissipare, meno linee di memoria da collegare, meno memoria, meno VRM, meno tutto, insomma).
Si spera che per il futuro abbia qualcosa in più da offire, perché se la GTX750 è l'antipasto di quel che potrà offrire Maxwell, AMD è messa male con questa architettura.
Concordo con i primi tre punti: )
Il resto e' sono boiate eh vabbeh su questo forum a volte si scrive tanto per consumare la tastiera...Noto cmq come tutti qui abbiano letto delle novita' introdotte nel chip, che di fatto lo rendono un affinamento dei precedenti e sebbene il fattore consumi sia importante, faccio notare che e' l'unico vantaggio a disposizione di nvidia per altro in relazione a prestazioni minori in media di un 15% ma con picchi anche superiori..
Ora capisco che uno non voglia leggere, ma forse ci faccio caso solo io, cmq e' possibile notare un notevole aumento dell'efficienza del controller di memoria che a parita' di impostazioni devasta il precedente presente su tahiti.
Non so se hai notato questo PICCOLISSIMO dettaglio, ma spesso a risoluzioni superiori al fullhd tale scheda gestisce assai meglio il carico sulle memorie, ora credo che tu abbi notata che con un quantitativo pari a un 20% in meno di stream processors a frequenze piu' basse e con un 33% in meno di memoria vram questa scheda, anche se di poco e' spesso avanti o allineata alla 280x che oltre a consumare di piu' e a scaldare di piu' va spesso di meno nonostante risorse hardware ben superiori.
Chiaramente sono ben conscio del fatto che si possa essere fan boy nvidia fino al midollo, ma dire che tahiti e' nato male ce ne vuole : D -consuma piu' di nvidia, ma come dire, quanto tempo ci metti a recuperare i soldi tramite bolletta che hai sborsato per avere una scheda video che a parita' di costa va SEMPRE di meno?
Fermo restando che amd monta piu' vram e ha cmq notevoli incrementi sotto overclock e indovina un po' DEVASTA PURE nel gpgpu?
Certo consuma di piu', ma alla fine si gioca con i consumi o con i videogiochi?
si lavora con i consumi o con le applicazioni di calcolo generale, perche' quando devi mettere 3 schede nvidia -che costano singolarmente molto di piu'- per arrivare ad avere prestazioni simili AD UNA radeon non credo che a qualcuno f@tt@ qualcosa dei minor consumi, visto che sarebbero maggiori e non minori a quel punto o no?
Poi e' chiaro che se uno proprio deve parteggiare puo' farlo ma spero che alla fine quanto meno vi paghino, perche' a vederla da fuori e' un po' ridicola come cosa : D
Einhander
03-09-2014, 15:51
Essendo il GK104 il suo diretto concorrente, o è un flop Tahiti o lo è il GK104. In un mercato in contrazione non c'è spazio perché ambedue siano un sucesso.
Lo so che probabilmente prima ho scritto un papiro troppo lungo perché tu lo possa comprendere tutto in poco tempo, ma uno sforzino magari per dire la tua con fatti concreti non sarebbe male.
Dammi un numero o dei fatti che mi dimostri che Tahiti non è uno flop. Io ho riportato quello che nvidia è riuscita a fare con il GK104 vs Tahiti. Dimmi tu dove stanno i punti di forza che rendono quest'ultimo un "successone" per AMD.
Finora ho visto solo frasi di derisione e nulla più verso il mio pensiero, che può anche essere sbagliato, ma certo non si liquida con "trollata del secolo" e basta.
Più che i commenti argomentati che vi danno fastidio (o non riuscite a capire), ad essere censurati dovrebbero essere proprio questo tipo di provocazioni da bambinetto con le mani sporche di Nutella che dimostrano che sei salito sul carro dei lapidatori ma non sai giustificare il perché.
Certo che dopo le affermazioni sui miliardi dei SoC per console, i miracoli di HSA, la sezione GPU di AMD che tiene in piedi tutta la baracca (quante volte l'ho letto) e 8350 vs Haswell-E ormai uno si aspetta di leggere di tutto qui. Magari anche qualcosa di divertente sul perché Tahiti è un "successone".
Spero mi rendiate felice.
@OptimisAI
Pure tu sei invitato a dare qualche indicazione che non sia "perché mi piace AMD e non ti è permesso criticarla". Che è un po' la moda che va forte ultimamente nei forum.
quanto costava la titan caro?
quanto costava la 780 caro?
quanto andavano queste ultime rispetto alla 290 e 290 x?
Quanto ci metti a rifare i soldi tramite bolletta che hai speso per prendere queste due e se poi improvvisamente rammenti che c'erano pure molti giochi in omaggio anche rivendibili questo gap di quanto diventa?
quanto tempo ci metto a tenere il gap costante con un minimo di mining?
quanto vanno queste mirabolanti architetture nvidia nell'ambito gpgpu?
Quanta vram hanno le nvidia per risoluzioni di riferimento per tale fascia?
quanto costano in piu' quelle tesla per andare molto meno di qualsiasi proposta gpgpu amd o anche retail?
si consuma di piu' delle nvidia e allora? adesso giochiamo con i videogiochi o con i consumi, tu quando giochi giochi con l'alimentatore o con l'applicazione?
E' molto difficile essere piu' efficienti facendo meno e costando molto di piu' eh si, proprio efficienti si, soprattutto nel prezzo.
Ora te lo dico io perche' nvidia vende di piu': MARKETING. E gente succube del marchio. Stop.
puoi anche pensare che sia dio sceso in terra ma quando argomenti se parti da premesse sbagliate puoi anche scrivere un papiro ma giungi cmq a coclusioni sbagliate.
Rispondi ora alle domandine di sopra grazie e fatti due conticini di quanti anni ci metti a recuperare i soldi in piu' della scheda video nvidia tramite bolletta tenendo conto pero' non dei costi attuali, perche' parliamo di vecchie schede ma di costi che ne so' dei primi 8-10 mesi di vita di tahiti in relazione alla controparte?
su su argomenta che sono curioso : D
P.s.: se proprio dobbiamo dirla il punto debole non erano in cosumi in relazione a cosa fa la scheda e alla sua fascia di collocazione, e lo sai pure te, ma di fatto e' l'unico vantaggio REALE di nvidia, che pero' si scontra con prestazioni minori e un costo superiore e sinceramente non giustificato se non dagli adoratori del marchio, a mio modo di vedere era il rumore e quindi il sistema di dissipazione standard il punto debole di questa soluzione. Non i consumi che anche se sembrano numeroni in termini di costi reali annui sono insignificanti rispetto all'esborso maggiore in fase di acquisto. Fortunatamente ora ci sono solo proposte aib.
Se fai meno cose e costi di piu', mi ripeto, e vai meno negli ambiti specifici di focus della scheda -giochi- allora si che e' giustificato il prezzo maggiore proprio guarda. Contento te.. xD
AceGranger
03-09-2014, 16:34
quanto vanno queste mirabolanti architetture nvidia nell'ambito gpgpu?
Quanta vram hanno le nvidia per risoluzioni di riferimento per tale fascia?
quanto costano in piu' quelle tesla per andare molto meno di qualsiasi proposta gpgpu amd o anche retail?
Perchè il mondo pro praticamente usa solo nVidia ?
Perchè le FirePro per GPGPU si vedono solo nelle slide di AMD e poi in giro trovi solo Tesla ?
Perchè nei supercomputer vedi sempre e solo Tesla ?
Perchè se prendo le review vedo sempre i soliti inutili bench in OpenCL di benchini fini a se stessi e se poi prendo in mano i software o sono CUDA o in OpenCL vanno meglio le nVidia o persino le Intel ( vedasi photoshop o photoscan )?
perchè nel mondo della grafica il 99% dei software o sono CUDA o se sono sia CUDA che OpenCL è meglio usarli in CUDA ?
ah ma sicuramente è perchè tutti i professionisti e responsabili IT si fanno abbindolare dal marketing, non è perchè se prendono AMD fanno 1/5 delle cose.
AMD ha un 20% del mercato pro perchè è la fascia cha si merita.
CrapaDiLegno
03-09-2014, 17:18
quanto costava la titan caro?
quanto costava la 780 caro?
quanto andavano queste ultime rispetto alla 290 e 290 x?
Quanto ci metti a rifare i soldi tramite bolletta che hai speso per prendere queste due e se poi improvvisamente rammenti che c'erano pure molti giochi in omaggio anche rivendibili questo gap di quanto diventa?
quanto tempo ci metto a tenere il gap costante con un minimo di mining?
quanto vanno queste mirabolanti architetture nvidia nell'ambito gpgpu?
Quanta vram hanno le nvidia per risoluzioni di riferimento per tale fascia?
quanto costano in piu' quelle tesla per andare molto meno di qualsiasi proposta gpgpu amd o anche retail?
si consuma di piu' delle nvidia e allora? adesso giochiamo con i videogiochi o con i consumi, tu quando giochi giochi con l'alimentatore o con l'applicazione?
E' molto difficile essere piu' efficienti facendo meno e costando molto di piu' eh si, proprio efficienti si, soprattutto nel prezzo.
Ora te lo dico io perche' nvidia vende di piu': MARKETING. E gente succube del marchio. Stop.
puoi anche pensare che sia dio sceso in terra ma quando argomenti se parti da premesse sbagliate puoi anche scrivere un papiro ma giungi cmq a coclusioni sbagliate.
Rispondi ora alle domandine di sopra grazie e fatti due conticini di quanti anni ci metti a recuperare i soldi in piu' della scheda video nvidia tramite bolletta tenendo conto pero' non dei costi attuali, perche' parliamo di vecchie schede ma di costi che ne so' dei primi 8-10 mesi di vita di tahiti in relazione alla controparte?
su su argomenta che sono curioso : D
P.s.: se proprio dobbiamo dirla il punto debole non erano in cosumi in relazione a cosa fa la scheda e alla sua fascia di collocazione, e lo sai pure te, ma di fatto e' l'unico vantaggio REALE di nvidia, che pero' si scontra con prestazioni minori e un costo superiore e sinceramente non giustificato se non dagli adoratori del marchio, a mio modo di vedere era il rumore e quindi il sistema di dissipazione standard il punto debole di questa soluzione. Non i consumi che anche se sembrano numeroni in termini di costi reali annui sono insignificanti rispetto all'esborso maggiore in fase di acquisto. Fortunatamente ora ci sono solo proposte aib.
Se fai meno cose e costi di piu', mi ripeto, e vai meno negli ambiti specifici di focus della scheda -giochi- allora si che e' giustificato il prezzo maggiore proprio guarda. Contento te.. xD
Figliolo, tranquillizati.
Rileggi quello che ho scritto con calma.
Non ho detto che Tahiti è una ciofeca. Ho detto che in confronto a quello che ha fatto nvidia è stato un flop per AMD. Mai parlato dell'ammortamento dei costi tramite consumo. Ho parlato di costi legati ai produttori per realizzare le schede con Tahiti rispetto al costo sostenuto con le schede su cui era montato il GK104.
Quanto costava la 7970 quanto è uscita? E quando è arrivato il GK104? Con che frequenze (e consumi) è uscita? E dopo il GK104?
Se hai la Ferrari che lanci a un milione di euro e dopo 3 mesi arriva la Porche che fa una macchina simile che costa 500.000 (quando il modello precedente della stessa fascia costava 200.000) e sei costretto a vendere la tua bellissima Ferrari a 400.000 perché non ti rimanga in garage (e anzi, le devi pure dare ritoccata al numero di giri per renderla migliore), mi spieghi come fai a dire che hai costruito un prodotto di successo? Se è migliore (e costa di più produrlo) e se è di successo deve rendere (economicamente) almeno come quello della concorrenza. Io tutto ciò non l'ho visto. Tu? Non sono questi dei fatti reali che vanno ben oltre al tuo test a UltraHD, la tua banda passante e al sistema di raffreddamento montato?
Cosa non hai capito del fatto che nvidia ha venduto un chip che prima vendeva a 150 euro a più di 400 euro? E quello che vendeva a 400 euro lo ha venduto a 600 e poi a 1000 e poi a 2500 nel mercato consumer?
Se c'è una cosa che decreta il successo di un prodotto è il suo prezzo (e margine di guadagno) rispetto alla concorrenza. Se sei costretto ad abbassare il prezzo per vendere vuol dire che non è tanto di successo. Se poi devi scendere sotto il prezzo di un prodotto concorrente anche se a te costa di più, significa che non è un prodotto di successo.
Tutti i tuoi esempi sul GPGPU non so dove tu li abbia presi. Dai bench con LuxMark? O quelli sintetici in OpenCL fatti dalle testae giornalistiche? Sarebbero quelli che fanno comprare 3 schede nvidia per eguaglaire una scheda AMD? Sono delle belle barrette lunghe, non c'è dubbio. Ma le tue barrette sulla carta valgono poco quando, come già detto, la concorrenza monta il chippetto economico su una Tesla e vince il test di massima efficienza in SP. E ne vende a palate a prezzi stratosferici per quel che in verità costa il chippetto che è il successore di quello che prima era nella categoria mainstream del mercato consumer venduto a 150 euro (il costo della GTX460/560).
Quanti Tahiti ha venduto AMD nelle schede professionali dedicate al GPGPU? Quanti Tahiti sono stati montati nei server HPC? E nelle Workstations? Rapporto vendita nel mercato professionale AMD:nvidia 1:5. Rapporto nel mercato server oltre l'infinito. AMD non c'era e Tahiti non ha cambiato nulla.
Tahiti fa millemilioni di Teraflops? Bello, non c'è dubbio, tecnicamente parlando è un prodigio. Ma anche tu, come molti altri che scaldano le tastiere qui, non ha capito cosa è un prodotto di sucesso. Se non lo vendi (ma lo svendi) di successo ce n'è ben poco.
Faccio una semplice domanda, visto che a quelle precedenti probabilmente non sai da che parte rivolgerti per trovare una risposta: ti sembra che Tahiti sia stato venduto al massimo del possibile per le sue possibilità (o quello che tu credi siano tali)?
Più credi che Tahiti sia superiore all'offerta della concorrenza, peggiore è il risultato che AMD ha ottenuto in termini reali (soldi, penetrazione nel mercato consumer, professionale o come tu lo voglia valutare) con quel chip. Ci fosse stato CapeVerde al posto di Tahiti (e Tahiti fosse stato il concorrente del GK110) non avrei alcun dubbio a ribaltare la mia opinione sul fatto che nvidia avesse sfornato una merd@ totale. Purtroppo però il confronto rispetto a quello che nvidia è riuscita a fare con il GK104 è impietoso. E lo vediamo tutti, con i prezzi stratosferici che non si sono mossi di una virgola per 2 anni fino all'arrivo di Hawaii.
Ora con calma, trova qualcosa che smonti il mio pensiero che non sia l'elenco delle caratteristiche sulla carta di Tahiti, che ripeterò all'infinito, non sono il punto del discorso.
Littlesnitch
03-09-2014, 18:06
Oramai questo thread sta diventando una comica!
Tra chi spara che Tahiti è un flop rispetto a GK104 e chi dice che AMD è meglio nel GPGPU non so più se ridere o piangere.
Mi chiedo perché intervengano sempre i soliti funkids di parte fino al midollo che mandano solo il thread in vacca e quelle poche persone che invece sono equilibrate e cercando di discutere sui fatti concreti si devono sorbire papiri deliranti che dicono il nulla più totale?
CrapaDiLegno
03-09-2014, 18:14
Oramai questo thread sta diventando una comica!
Tra chi spara che Tahiti è un flop rispetto a GK104 e chi dice che AMD è meglio nel GPGPU non so più se ridere o piangere.
Mi chiedo perché intervengano sempre i soliti funkids di parte fino al midollo che mandano solo il thread in vacca e quelle poche persone che invece sono equilibrate e cercando di discutere sui fatti concreti si devono sorbire papiri deliranti che dicono il nulla più totale?
Perché non c'è una risposta degna che neghi quello che è sato detto finora?
Tu stesso non hai portato nulla di utile in questa discussione. Hai negato con convinzione, ma non hai dato una che sia una motivazione.
La neve è bianca.
No non è vero.
Ma non la vedi?
Non mi interessa, non è bianca e questa discussione mi annoia.
E' ovvio che così non si va lontano nel confronto.
appleroof
03-09-2014, 18:23
Figliolo, tranquillizati.
Rileggi quello che ho scritto con calma.
Non ho detto che Tahiti è una ciofeca. Ho detto che in confronto a quello che ha fatto nvidia è stato un flop per AMD. Mai parlato dell'ammortamento dei costi tramite consumo. Ho parlato di costi legati ai produttori per realizzare le schede con Tahiti rispetto al costo sostenuto con le schede su cui era montato il GK104.
Quanto costava la 7970 quanto è uscita? E quando è arrivato il GK104? Con che frequenze (e consumi) è uscita? E dopo il GK104?
Se hai la Ferrari che lanci a un milione di euro e dopo 3 mesi arriva la Porche che fa una macchina simile che costa 500.000 (quando il modello precedente della stessa fascia costava 200.000) e sei costretto a vendere la tua bellissima Ferrari a 400.000 perché non ti rimanga in garage (e anzi, le devi pure dare ritoccata al numero di giri per renderla migliore), mi spieghi come fai a dire che hai costruito un prodotto di successo? Se è migliore (e costa di più produrlo) e se è di successo deve rendere (economicamente) almeno come quello della concorrenza. Io tutto ciò non l'ho visto. Tu? Non sono questi dei fatti reali che vanno ben oltre al tuo test a UltraHD, la tua banda passante e al sistema di raffreddamento montato?
Cosa non hai capito del fatto che nvidia ha venduto un chip che prima vendeva a 150 euro a più di 400 euro? E quello che vendeva a 400 euro lo ha venduto a 600 e poi a 1000 e poi a 2500 nel mercato consumer?
Se c'è una cosa che decreta il successo di un prodotto è il suo prezzo (e margine di guadagno) rispetto alla concorrenza. Se sei costretto ad abbassare il prezzo per vendere vuol dire che non è tanto di successo. Se poi devi scendere sotto il prezzo di un prodotto concorrente anche se a te costa di più, significa che non è un prodotto di successo.
Tutti i tuoi esempi sul GPGPU non so dove tu li abbia presi. Dai bench con LuxMark? O quelli sintetici in OpenCL fatti dalle testae giornalistiche? Sarebbero quelli che fanno comprare 3 schede nvidia per eguaglaire una scheda AMD? Sono delle belle barrette lunghe, non c'è dubbio. Ma le tue barrette sulla carta valgono poco quando, come già detto, la concorrenza monta il chippetto economico su una Tesla e vince il test di massima efficienza in SP. E ne vende a palate a prezzi stratosferici per quel che in verità costa il chippetto che è il successore di quello che prima era nella categoria mainstream del mercato consumer venduto a 150 euro (il costo della GTX460/560).
Quanti Tahiti ha venduto AMD nelle schede professionali dedicate al GPGPU? Quanti Tahiti sono stati montati nei server HPC? E nelle Workstations? Rapporto vendita nel mercato professionale AMD:nvidia 1:5. Rapporto nel mercato server oltre l'infinito. AMD non c'era e Tahiti non ha cambiato nulla.
Tahiti fa millemilioni di Teraflops? Bello, non c'è dubbio, tecnicamente parlando è un prodigio. Ma anche tu, come molti altri che scaldano le tastiere qui, non ha capito cosa è un prodotto di sucesso. Se non lo vendi (ma lo svendi) di successo ce n'è ben poco.
Faccio una semplice domanda, visto che a quelle precedenti probabilmente non sai da che parte rivolgerti per trovare una risposta: ti sembra che Tahiti sia stato venduto al massimo del possibile per le sue possibilità (o quello che tu credi siano tali)?
Più credi che Tahiti sia superiore all'offerta della concorrenza, peggiore è il risultato che AMD ha ottenuto in termini reali (soldi, penetrazione nel mercato consumer, professionale o come tu lo voglia valutare) con quel chip. Ci fosse stato CapeVerde al posto di Tahiti (e Tahiti fosse stato il concorrente del GK110) non avrei alcun dubbio a ribaltare la mia opinione sul fatto che nvidia avesse sfornato una merd@ totale. Purtroppo però il confronto rispetto a quello che nvidia è riuscita a fare con il GK104 è impietoso. E lo vediamo tutti, con i prezzi stratosferici che non si sono mossi di una virgola per 2 anni fino all'arrivo di Hawaii.
Ora con calma, trova qualcosa che smonti il mio pensiero che non sia l'elenco delle caratteristiche sulla carta di Tahiti, che ripeterò all'infinito, non sono il punto del discorso.
forse detta così è diversa, io stesso come quasi tutti ho avuto la percezione che intendessi che Tahiti è stato un fallimento completo e bona, che secondo me non è condivisibile.
Messa in questo modo il tuo post lo condivido grossomodo, forse però non tieni conto di un fattore che non riguarda la bontà intrinseca dei prodotti o chip, ossia la penetrazione di mercato...prima si ricordava per il settore pro, ma pure nel gaming nvidia sono anni che ha maggiore quota*, quindi fidelizzazione etc...probabilmente, anzi secondo me sicuramente, anche questo -ripeto, oltre alle considerazioni sulla validità o meno dei prodotti- incide sulla politica dei prezzi che da anni le due società attuano.
*es. dati più recenti che trovo:
http://i.imgur.com/2lFdu7ol.jpg (http://imgur.com/2lFdu7o)
http://i.imgur.com/Hx2h7Mzl.jpg (http://imgur.com/Hx2h7Mz)
http://www.anandtech.com/show/8446/the-state-of-pc-graphics-sales-q2-2014
BrodoDiGhiande
03-09-2014, 18:50
Facendomi vedere quei grafici mi è presa la nostalgia per Matrox:cry:
E andando a vedere sul loro sito ho trovato un articolo degno di un Novella2000 dell'informatica:
http://www.matrox.com/graphics/it/press/releases/2014/graphics_cards/amd/
tuttodigitale
04-09-2014, 18:19
dire che tahiti è un chip nato male, quando compirà 3 anni a Dicembre, è una sciocchezza. Tanto più che in questa recensione esce a dire ancora la sua, e ha il plus di quei 3 gb di vram che vanno considerati.
non ha senso per AMD tenere in vita Tahiti quando in definitiva c'è troppa poca differenza di costi con Hawaii, mentre tra tahiti e Pit-cairn ci passa il mondo.. Anzi non mi stupirei se schede basate su questo chip uscissero di produzione (vedi r9 270)
chi vuole utilizzare la gpu per il calcolo non lo fa certo con soluzioni basate su gk104. E lascia il tempo che trova che è cuda compatibile. La causa della scarsa diffusione di opencl non è certo di Tahiti.
Ma per il futuro prevedo che la diffusione di Cuda resterà una nicchia, per opencl chissà, magari davvero HSA fa il botto e sarà difficile trovare una applicazione (perchè no? anche il sistema operativo) che non ne faccia uso.
Secondo me tra qualche settimana le 285 custom staranno sotto i 200 euro e saranno dei gran belli acquisti.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.