View Full Version : ATI Radeon HD 6800, per la prima volta tra le nostre mani
Redazione di Hardware Upg
16-09-2010, 12:21
Link alla notizia: http://www.hwupgrade.it/news/skvideo/ati-radeon-hd-6800-per-la-prima-volta-tra-le-nostre-mani_33764.html
Abbiamo avuto tra le mani un prototipo della prossima generazione di schede video AMD attese al debutto nel quarto trimestre 2010; ecco le prime impressioni
Click sul link per visualizzare la notizia.
Vampire666
16-09-2010, 12:24
Non vedo l'ora di vedere qualche recensione completa. :D
Ma quant'è bello leggere le recensioni di una nuova serie di schede video. ;)
ci gira crysis2? :stordita:
Vampire666
16-09-2010, 12:34
[...]Abbiamo scelto di non pubblicare immagini di questa scheda, per proteggere la nostra fonte; [...]
Ma quanto film poliziesco/detective sà questa frase! :cool:
:stordita:
A quanto ho letto dovrebbero aver rivisto completamente l'architettura e il modo in cui gli stream processor processano i dati, oltre che fixare il "problema" con le tasselletor units.
Il fatto che usino però un connettore a 6pin e uno a 8 pin indica che sicuramente avremo consumi superiori rispetto alla 5870. Vedremo di quanto. Sicuramente avremo migliori performance per watt e per nvndia saranno dolori dato che gia ora le 5800 hanno una maggiore efficienza anche rispetto all'ottima gtx 460...
Vedremo il mese prossimo...
Certo è che chi l'avrebbe mai detto che amd sarebbe riuscita a tirarsi su in questo modo rispetto ai tempo di r600...La situazione è completamente ribaltata.
I miei complimenti ad AMD sul lato gpu.
consumi in aumento, quindi.......
Capellone
16-09-2010, 12:39
Mettete ugualmente la foto, anche se con qualche censura :D
prevedo una 6870 che a default di frequenze e leggermente downvoltata andrà come una 480 ma consumando la metà.....scommettiamo? :D Solo sul prezzo non saprei cosa sparare ma penso costerà come una 5970 di adesso (mentre quest'ultima verrà svenduta in attesa della 6970)...just my .02$
questo modo rispetto ai tempo di r600...La situazione è completamente ribaltata.
beh, questo è ovvio.
per costringere me, che all'epoca ero un fanboy nvidia, a cambiare drasticamente "sponda", qualcosa dovranno pur aver fatto :D
+Benito+
16-09-2010, 12:46
?
Se non c'era da sputtanarsi, è tardi per proteggere chicchessia.
ah fine mese prossimo le troviamo sul mercato, giusto per fare un po' di hype in previsione"regali di natale" :D
Praticamente ge force è rimasta indietro una generazione..anzi è ancora in balia del progetto Fermi :asd:
Comunque mi sa che come potenza ci sarà un bell'incremento dato che monta attacchi da 6 e 8 pin.
Angelonero87
16-09-2010, 12:48
la volgio :eek:
dalla descrizione questa mi sembra la foto più vicina alla realtà
http://www.tomshw.it/files/2010/09/immagini/26854/amd-cayman-xt.jpg
ghiltanas
16-09-2010, 12:51
hype alle stelle :O
Markk117
16-09-2010, 12:52
Ottimo lavoro HWU! per le foto si può aspettare meglio avere altre info dallo stesso informatore non sputtanandolo piuttosto che sputtanarlo e non poterlo + usare!! XD
beh, questo è ovvio.
per costringere me, che all'epoca ero un fanboy nvidia, a cambiare drasticamente "sponda", qualcosa dovranno pur aver fatto :D
Io sono sempre stato imparziale.. chi offriva di meglio al prezzo più basso quella prendevo.
Ora però dopo tanti anni di Ati ho avuto modo di provare 3/4 ge force e l'ago della bilancia si è spostato più verso quest'ultime.
Peccato che questa preferenza mi passerà molto presto mi sa per come stanno andando le cose :O
Comunque mi sa che come potenza ci sarà un bell'incremento dato che monta attacchi da 6 e 8 pin.
zitti zitti zitti stò cercando di non farmi venire la scimmia anche per la serie 6800 :muro:
mi trovo cosi bene con la 5830, non fatemela cambiare :cry:
Chissa' che escano facendo crollare il prezzo della benedetta 5850 :D
c'.ds''.dd.'dds
Alekos Panagulis
16-09-2010, 12:55
Che colpo!!
Metal Icarus
16-09-2010, 12:59
ci gira crysis2? :stordita:
a dettagli medi ;)
:asd:
caurusapulus
16-09-2010, 12:59
ottimo :oink:
longhorn7680
16-09-2010, 13:05
Povera nVidia :D
Questo sara un colpo durissimo, visto che la risposta non arrivera a breve con le vendite di tutta la serie Fermi sotto le aspettative (come confermato da nVidia stessa e dai prezzi che ci sono in giro) e Ati che puo lavorare tranquillamente ai 28nm sapendo di avere il predominio prestazionale e tutte le fasce ampiamente coperte con prodotti validissimi!
Mi domando cosa stia aspettando il CEO di nVidia a dimettersi visti i risultati?
O si danno una mossa o qui seriamente rischiano di essere acquistati da intel!
Gualmiro
16-09-2010, 13:05
al di là del consumo a pieno carico, che comunque finché resta accettabile lo si commisura alle prestazioni e stop, mi auguro continuino a limare (e di parecchio) il consumo in idle.
la serie HD5xxx ha fatto molto in questo senso. per chi tiene il computer molte ore acceso ma che comunque vuole una scheda video dignitosa sarebbe una buona cosa
P.S.: non sono tra quelli che andrà sulle top di gamma... 5770 attualmente, magari 6770 se ne varrà la pena in futuro.
ghiltanas
16-09-2010, 13:11
al di là del consumo a pieno carico, che comunque finché resta accettabile lo si commisura alle prestazioni e stop, mi auguro continuino a limare (e di parecchio) il consumo in idle.
la serie HD5xxx ha fatto molto in questo senso. per chi tiene il computer molte ore acceso ma che comunque vuole una scheda video dignitosa sarebbe una buona cosa
P.S.: non sono tra quelli che andrà sulle top di gamma... 5770 attualmente, magari 6770 se ne varrà la pena in futuro.
le serie potrebbero aumentare il target con le 6000...una 6770 potrebbe già essere ottima in fullhd, quindi porteresti già a casa una signora scheda ;)
qui seriamente rischiano di essere acquistati da intel!
DIO CE NE SCAMPI E LIBERI!!!
"i 2 blocchi", AMD + ATI vs INTEL + NVIDIA
smetterei di interessarmi di pc, e mi darei al golf.
GoodGame & byebye Nvidia. ;)
sbudellaman
16-09-2010, 13:19
Ed ecco la conferma che ATI praticamente ha già tutto pronto :D sono proprio curioso di vedere come reagirà la controparte Nvidia, a questo punto è messa davvero alle strette e se ritarderà di nuovo per parecchio tempo perderà ancora più mercato !
longhorn7680
16-09-2010, 13:23
DIO CE NE SCAMPI E LIBERI!!!
"i 2 blocchi", AMD + ATI vs INTEL + NVIDIA
smetterei di interessarmi di pc, e mi darei al golf.
E su questo non ci piove, il mio intervento non era assolutamente in favore a questo scenario! Solo che se continuano cosi la vedo brutta!
@Paolo Corsini:
Quando vi capiterà di recensire le nuove HD 6800, potete confrontarle con un crossfire delle vecchie 5800? A me interessa perchè sto valutando se economicamente e prestazionalmente conviene passare alla nuova generazione o fare appunto un crossfire.
Futura12
16-09-2010, 13:24
Complimenti ad Amd.!
Probabilmente le performance saranno più elevate della GTX 480 in modo poi da confrontarsi con un fermi 512SP se mai uscirà.
In ogni caso tutto cio è un bene perchè i prezzi delle vecchie soluzioni caleranno,e alla Nvidia avranno decisamente il pepe al culo per tirar fuori qualcosa che possa tenergli testa...
Chissa' che escano facendo crollare il prezzo della benedetta 5850 :D
c'.ds''.dd.'dds
5850 al prezzo della 5750 e tutti più felici!:D
nessuna data precisa per quando potrete pubblicare qualche recensione? :cry:
longhorn7680
16-09-2010, 13:28
Ed ecco la conferma che ATI praticamente ha già tutto pronto :D sono proprio curioso di vedere come reagirà la controparte Nvidia, a questo punto è messa davvero alle strette e se ritarderà di nuovo per parecchio tempo perderà ancora più mercato !
E come dovrebbe reagire??? NOn hanno pronto niente, non hanno lanciato tutta la lineup di Fermi, non sono riusciti a far funzionare al pieno delle possibilita ne GF100 ne GF104, stanno perdendo quote e vendono meno del previsto.
Qui a meno di un miracolo o di un chip bomba che ci hanno tenuto nascosto non vedo proprio come pensano di uscirne.
Neanche GF106 potra aiutarli visto che a nVidia costa di piu produrlo essendo piu grosso di RV840 :muro: :muro: :muro: Percio Ati puo ancora tagliare i prezzi mentre nVidia non credo abbia molto margine!
5850 al prezzo della 5750 e tutti più felici!:D
mi basterebbe pagarla quanto pagai la 4870 512mb 1 annetto fa , quindi sulle 130 neuri.
poi svendendo la 4870 qualcosa dovrei recuperare...
Cl,sl,sl,sl,s
E su questo non ci piove, il mio intervento non era assolutamente in favore a questo scenario! Solo che se continuano cosi la vedo brutta!
ma io penso che per max febbraio facciano uscire FERMI 2. casomai a 28nm.
se non reagiscono subito, manco intel se la compra.
GTX400 doveva scontrarsi con HD5000, ma è uscita troppo in ritardo per farlo. e anche se l'avesse fatto, non ne sarebbe uscita cmq bene.
ma nella maniera più assoluta, è pura follia per nvidia cercare di scontrarsi con HD6000. vorrebbe dire, dopo HD5000 lasciare nuovamente in mano ad ATI il mercato vga per un'altro anno.
nessuna azienda reggerebbe questo colpo. e poi sarebbe peggio anche per noi consumatori. il mio cuore non reggerebbe altri mesi a vedere le vga ATI sovraprezzate a causa del monopolio.
Paolo Corsini
16-09-2010, 13:36
nessuna data precisa per quando potrete pubblicare qualche recensione? :cry:
Chiarisco, onde evitare malintesi. Non ho la scheda con me; l'ho vista, tenuta in mano, analizzata e restituita.
Non sono sotto NDA con AMD al momento su questo prodotto.
Non conosco la data di lancio, che presumo essere nel Q4 e indicativamente, a sensazione, entro 5-6 settimane come massimo.
Se fossi sotto NDA non avrei pubblicato questa news; se sapessi ufficialmente la data di lancio non la potrei comunicare.
Paolo Corsini
16-09-2010, 13:37
ma io penso che per max febbraio facciano uscire FERMI 2. casomai a 28nm...
Processo a 28 nanometri per Febbraio 2011: se vuoi ce lo sognamo tutti assieme io, te, NVIDIA, AMD e TSMC, perché in altro mondo che non sia quello dei sogni non lo vedo proprio come possibile.
goldorak
16-09-2010, 13:37
Chissa' che escano facendo crollare il prezzo della benedetta 5850 :D
c'.ds''.dd.'dds
E piu' probabile che le 5850/70 vengano tolte dai canali distributivi per evitare appunto il crollo dei prezzi. D'altronde il prezzo di queste schede a malapena dopo quasi 1 anno si e' avvicinato al MSRP. :rolleyes:
Non ha senso svenderle, neanche' quando arrivera' il refresh.
La consolazione e' che magari il refresh della 5770 sara' un piccolo mostro e dal prezzo contenuto.
l'ho vista, tenuta in mano, analizzata e restituita.
sgamata la fonte ;)
Non conosco la data di lancio, che presumo essere nel Q4 e indicativamente, a sensazione, entro 5-6 settimane come massimo.
COSI PRESTO?? impossibile.
di queste cose te ne intendi più te di me, e quindi le tue sensazioni sicuramente poggeranno su ragionamenti azzeccati... ma la tua stima mi sembra irreale.
Processo a 28 nanometri per Febbraio 2011: se vuoi ce lo sognamo tutti assieme io, te, NVIDIA, AMD e TSMC, perché in altro mondo che non sia quello dei sogni non lo vedo proprio come possibile.
beh, nvidia per risollevarsi, e per evitare di lasciare altri 7 mesi di campo libero ad ATI, non altra scelta che quella di STUPIRE tutti, e di darsi una sonora svegliata.
longhorn7680
16-09-2010, 13:40
ma io penso che per max febbraio facciano uscire FERMI 2. casomai a 28nm.
se non reagiscono subito, manco intel se la compra.
GTX400 doveva scontrarsi con HD5000, ma è uscita troppo in ritardo per farlo. e anche se l'avesse fatto, non ne sarebbe uscita cmq bene.
ma nella maniera più assoluta, è pura follia per nvidia cercare di scontrarsi con HD6000. vorrebbe dire, dopo HD5000 lasciare nuovamente in mano ad ATI il mercato vga per un'altro anno.
nessuna azienda reggerebbe questo colpo. e poi sarebbe peggio anche per noi consumatori. il mio cuore non reggerebbe altri mesi a vedere le vga ATI sovraprezzate a causa del monopolio.
Per febbraio penso sia impossibile, visto che Fermi2 per forza di cose dovra uscire a 28nm e per quella data ci saranno al max gli ES del PP a 28nm percio e utopico pensare che possano far uscire un chip da oltre 3mld di transistor prima di maggio-giugno 2011!
La mia preoccupazione e che nVidia possa non reggere questo colpo venendo assorbita da chi sappiamo bene (peggio stanno e piu appetibili sono per intel) e si arriverebbe ad un duopolio che e di fatto spaccherebbe il mercato PC in 2 piattaforme ben distinte!
OMFG!!!!! :help: :help: :help:
VOGLIO LA RECE!!!!! provatelaa!!!
longhorn7680
16-09-2010, 13:43
beh, nvidia per risollevarsi, e per evitare di lasciare altri 7 mesi di campo libero ad ATI, non altra scelta che quella di STUPIRE tutti, e di darsi una sonora svegliata.
Non dipende da nVidia nel modo piu assoluto! Se le fonderie non sono in grado di produrre a 28nm nVidia puo solo attaccarsi al tram esattamente come Ati!
carlottoIIx6
16-09-2010, 13:48
non piangete su nvidia
si risolleverà
tanto più che la sua fascia professionale tira molto
e gli garantisce guadagni elevati
non è come tra i processori dove intel va bene ovunque
ati va bene 50% sul mercato cunsumer, ma sulle schede professionali ancora tira molto
speriamo invece che con la serie 6000 ati confermi quello di buono fatto
a prezzi accettabili, con buon consumo energetico
e guadagni quote di mercato
sbudellaman
16-09-2010, 13:48
E come dovrebbe reagire??? NOn hanno pronto niente, non hanno lanciato tutta la lineup di Fermi, non sono riusciti a far funzionare al pieno delle possibilita ne GF100 ne GF104, stanno perdendo quote e vendono meno del previsto.
Qui a meno di un miracolo o di un chip bomba che ci hanno tenuto nascosto non vedo proprio come pensano di uscirne.
Neanche GF106 potra aiutarli visto che a nVidia costa di piu produrlo essendo piu grosso di RV840 :muro: :muro: :muro: Percio Ati puo ancora tagliare i prezzi mentre nVidia non credo abbia molto margine!
E' vero, nvidia passa un momento molto brutto. Però anche ai tempi di R600 è successa la stessa cosa. Vedrete, col tempo si rialzerà ;) forse non l'anno prossimo, ma fra due anni sarà di nuovo competitiva, e magari sarà anche un pò più "umile " :D
Tra l'altro dubito che anche nella peggiore delle ipotesi possa arrivare a fallire. Ricordiamoci che nel campo professionale è lei la leader, secondo me si specializzerebbe in quel campo :) spero ugualmente di no, ovvio, perchè sarebbero cazzi comunque nel settore gaming.
Ricordiamoci che nel campo professionale è lei la leader, secondo me si specializzerebbe in quel campo
dio non voglia.
nvidia deve rimanere assolutamente competitiva anche nel gaming. altrimenti addio alla concorrenza.
Io spero nel ritorno di 3dfx :D
Io spero nel ritorno di 3dfx :D
quanti commenti imbarazzanti...
Bene, ATI sta per lanciare la nuova serie.
No, Nvidia non sta fallendo.
Nvidia ha l'87% del mercato professionale in mano, da cui provengono 2/3 dei suoi guadagni. Fermi è stato progettato per questo.
E in campo gaming ci sono sempre il doppio di gpu Nvidia in circolazione rispetto alle ATI.
Ricordiamo anche che i miliardi di debiti stanno sulla testa di AMD, non di Nvidia.
Grande HUW!!!!!!!!!!! :asd:
Per cui anche dalla risposta di Paolo, il 25 ottobre sembra sempre più realistico. Ottimo :D
Sul discorso nVidia o riescono a sfruttare bene i 40nm oppure sarà grigia(molto grigia)
Nvidia ha l'87% del mercato professionale in mano, da cui provengono 2/3 dei suoi guadagni. Fermi è stato progettato per questo.
Bene, ora sono più tranquillo.
perchè nel campo gaming, da un'anno a questa parte stà perdendo terreno in maniera imbarazzante.
e la situazione a quanto pare non ha prospettiva di migliorare, almeno per altri 7-8 mesi, visto l'andazzo.
e il fatto che i 2/3 del fatturato annuo vengano dalle soluzione professionali(che sono una frazione minima delle vga "desktop" in commercio), che oltretutto fanno tanti soldi perchè costano uno stonfio, E' ALLARMANTE.
cmq se tu mi dici che nvidia, dopo FERMI è più forte di prima, mi fido. anzi meglio, vorrà dire che le HD6000 verranno vendute ad un prezzo umano, invece del terribile sovraprezzo come nel caso delle HD5000, quando mncava la concorrenza.
adkjasdurbn
16-09-2010, 14:13
non vedo l'ora per la 6670 (senza alimentazione aggiuntiva) degna erede dell'ottima 5670 :)
longhorn7680
16-09-2010, 14:17
quanti commenti imbarazzanti...
Bene, ATI sta per lanciare la nuova serie.
No, Nvidia non sta fallendo.
Nvidia ha l'87% del mercato professionale in mano, da cui provengono 2/3 dei suoi guadagni. Fermi è stato progettato per questo.
E in campo gaming ci sono sempre il doppio di gpu Nvidia in circolazione rispetto alle ATI.
Ricordiamo anche che i miliardi di debiti stanno sulla testa di AMD, non di Nvidia.
OMG!!! :rotfl: :rotfl: :rotfl:
Che perle si riescono a tirar fuori per difendere l'indifendibile!
Cosa c'entra il mercato professionale??? Senza il mercato mainstream sai quando uscira la prox generazione di schede pro?? Piu o meno il giorno di San MAI!
C'e per caso qualche economista che riesce a spiegargli che le schede vendute dal 2007 al 2009 non portano guadagni ad nVidia oggi e tanto meno nei prossimi 8 mesi prima dell'ipotetico lancio di Fermi2 :doh:
La GM ha il parco circolante piu grosso al mondo eppur e sull'orlo del fallimento!! Giusto per fare un esempio!
"La GM ha il parco circolante piu grosso al mondo eppur e sull'orlo del fallimento!! Giusto per fare un esempio!"...
...elrim owned !... :asd:
Vabeh dai. Il GF100 in ambito gaming è davvero una sola. Tuttavia il GF106 lo vedo ben piazzato. Gia ora una gtx460 con frequenze ben piu basse di quelle che potrebbe avere e con delle SIMD disabilitate ha prestazioni circa come la 5850.
Una revisione con frequenze pompate (e da quello che leggo si overcloccano davvero tanto) e tutte le simd abilitate avrebbero credo un chip prestazionalmente nell'intorno della 5870. Il tutto per circa 200€.
Mettine due insieme e ottieni una vga dual dalle ottime performance. Certo con le 6800 ati riguadagnerà lo scettro delle prestazioni ma credo che nn ci sarà tutto questo distacco considerando che siamo sempre fermi ai 40nm.
Quindi io credo che con l'introduzione delle 6800 nvidia risponderà con un chip gf106 full e una dual. Ovviamente giocherà sui prezzi e sul phisix, cuda e cagatine varie che tanto fan gola a molti. Avremo quindi vga radeon piu potenti come forza bruta e vga nvidia meno ma con un ecosistema più completo.
Quindi non vedo grossi sconvolgimenti. Sempre che le 6800 nn diano numeri stratosferici ma credo che nn ci sarò un aumento oltre il 20-30% rispetto alla generazione attuale.
Felice di essere smentito, anche perche prenderò molto probabilmente una 6770 o 6850 (soldi permettendo) se intorno ai 200€. Se costeranno di piu potrei buttarmi su una ottima gtx460 (ma sarà dura) eheh
masty_<3
16-09-2010, 14:27
lcol sulla gtx460 c'è il gf104 non 106, che è sulla gts450
comunque voi che dite Elrim owned, io spero che abbia almeno per 2/3 di quello che ha detto ragione, così Ati ha il tempo di rimettersi in pari, di trascinarsi AMD e mandare avanti il tutto; nvidia dovrebbe inventarsi una maledetta piattaforma completa e intel scordarsi 1 pò il benedetto mondo della grafica e dedicarsi ai suoi processori.
Paolo Corsini
16-09-2010, 14:28
OMG!!! :rotfl: :rotfl: :rotfl:
Che perle si riescono a tirar fuori per difendere l'indifendibile!
Cosa c'entra il mercato professionale??? Senza il mercato mainstream sai quando uscira la prox generazione di schede pro?? Piu o meno il giorno di San MAI!
C'e per caso qualche economista che riesce a spiegargli che le schede vendute dal 2007 al 2009 non portano guadagni ad nVidia oggi e tanto meno nei prossimi 8 mesi prima dell'ipotetico lancio di Fermi2 :doh:
La GM ha il parco circolante piu grosso al mondo eppur e sull'orlo del fallimento!! Giusto per fare un esempio!
Se me lo permetti, l'utente che hai quotato e criticato ha fatto osservazioni molto corrette e pertinenti; per i dati che ha indicato basta cercare un po' di fonti facilmente reperibili, anche sulle news di Hardware Upgrade.
La tua risposta, francamente, è proprio campata per aria e non basata su nulla di oggettivo.
longhorn7680
16-09-2010, 14:29
Bene, ora sono più tranquillo.
perchè nel campo gaming, da un'anno a questa parte stà perdendo terreno in maniera imbarazzante.
e la situazione a quanto pare non ha prospettiva di migliorare, almeno per altri 7-8 mesi, visto l'andazzo.
e il fatto che i 2/3 del fatturato annuo vengano dalle soluzione professionali(che sono una frazione minima delle vga "desktop" in commercio), che oltretutto fanno tanti soldi perchè costano uno stonfio, E' ALLARMANTE.
cmq se tu mi dici che nvidia, dopo FERMI è più forte di prima, mi fido. anzi meglio, vorrà dire che le HD6000 verranno vendute ad un prezzo umano, invece del terribile sovraprezzo come nel caso delle HD5000, quando mncava la concorrenza.
:confused: :confused: :confused:
Non fattura i 2/3 con le soluzioni pro, ma guadagna i 2/3 che sono 2 cose ben differenti! Il fatturato delle soluzioni desktop, dove i margini sono piu risicati, viene investito in R&D, ci sono le spese e gli ammortamenti e tutto il resto della gestione aziendale, percio il fatto che i 2/3 del profitto netto derivino dal settore pro e piu un campanello d'allarme, visto il dominio fino ad un anno fa nel settore consumer!
Non farti trarre in inganno da commenti che sinceramente fanno sorridere e lasciano il tempo che trovano!
lcol sulla gtx460 c'è il gf104 non 106, che è sulla gts450
comunque voi che dite Elrim owned, io spero che abbia almeno per 2/3 di quello che ha detto ragione, così Ati ha il tempo di rimettersi in pari, di trascinarsi AMD e mandare avanti il tutto; nvidia dovrebbe inventarsi una maledetta piattaforma completa e intel scordarsi 1 pò il benedetto mondo della grafica e dedicarsi ai suoi processori.
Si scusami, la nomenclatura dei chip nvidia me la confondo sempre. Penso sempre che un gf106 sia più potente di un gf104. Sono abituato con la nomenclatura della Radeon ;)
avvelenato
16-09-2010, 14:33
Ogni tot che a causa delle normali fluttuazioni di mercato, la marca taluna ha un certo predominio prestazionale sulla marca talaltra, tutti a profetizzare imminenti fallimenti.
dai se fosse così facile per un'azienda fallire non credete che sarebbero tutte fallite da mò? le geforce fx 5xxx ve le ricordate? e ati con la serie 3xxx? dai su.
E anche l'acquisto di nVidia da parte di intel lo vedo attualmente uno scenario fantascientifico.
poi chi vuol tifare tifi per la squadra del cuore...
sbudellaman
16-09-2010, 14:34
Certo che se ci pensate, oggi il comparto video è l'unico che si sta evolvendo con una certa velocità nel settore hardware... ogni 1-2 anni le prestazioni aumentano almeno del 50% e l'efficenza migliora.
Per tutto il resto invece stiamo andando molto a rilento.
Nel settore delle periferiche di memorizzazione, l'unica innovazione da diversi anni sono stati gli SSD e da allora il prezzo non accenna a scendere segno che di passi avanti se ne fanno pochi.
Nel settore CPU la differenza di prestazioni con la generazione precedente si fa sempre più esigua, e perchè esca una nuova generazione passa un sacco di tempo. Tra l'altro fra un q6600 di ben 4 anni fa e un i930 le differenze si notano in parte solo con un uso davvero professionale.
E' come se la velocità nel progredire del settore informatico stia scemando sempre più... certo anche nel settore grafico vale lo stesso discorso ma a me sembra in misura inferiore.
Scusate se è un po' da fanboy ma francamente preferisco un successo ATI che è più aperta al mondo free e non crea tecnologie proprietarie che poi fan levitare i prezzi a una nVidia che mi rifila un sovrapprezzo come niente oltre al fatto che le schede nVidia son sempre stare piuttosto costosette.
Un deciso indebolimento di nVidia verso il 50% porterà a maggiore concorrenza, prezzi più competitivi e spero il decadimento definitivo di tutti gli standard proprietari a favore dei free.
percio il fatto che i 2/3 del profitto netto derivino dal settore pro e piu un campanello d'allarme, visto il dominio fino ad un anno fa nel settore consumer!
questo infatti l'avevo intuito.
per quanto riguarda il resto del discorso, ho sbagliato completamente parola, "fattura", e non mi sono corretto in tempo.
longhorn7680
16-09-2010, 14:40
Se me lo permetti, l'utente che hai quotato e criticato ha fatto osservazioni molto corrette e pertinenti; per i dati che ha indicato basta cercare un po' di fonti facilmente reperibili, anche sulle news di Hardware Upgrade.
La tua risposta, francamente, è proprio campata per aria e non basata su nulla di oggettivo.
Non per fare polemiche inutili, ma l'utente che ho criticato ha dato si dati veritieri ma dandone un'interpretazione alquanto pittoresca e poco fondata.
Dire che nVidia ha il doppio delle VGA in circolazione e vero, ma questo non porta alcun guadagno ad nVidia!
Sui guaadgni nel settore professionale ho gia risposto qualche post sopra.
Vorresti dire che dopo un architettura uscita in ritardo dove nVidia ha perso grosse fette di mercato, e un altro probabile ritardo importante facciano il solletico ad nVidia e che addirittura sia uscita rinforzata da questa situazione? Perche era questo il succo del discorso dell'utente che ho quotato!
mirko93s
16-09-2010, 14:40
guardate qui:
http://www.tomshw.it/cont/news/amd-manda-ko-nvidia-sono-le-radeon-le-piu-amate/26472/1.html in fondo... nvidia ha perso quasi il 10% dall'anno scorso, e ati ha guadagnato circa il 6%...
Nvidia avrà sempre la scheda più veloce (9800gtx+\gtx285-295\gtx480, ecc.....) però se le stesse prestazioni dalla parte di ati costano 20-30% in meno, non vedo perchè uno debba spendere di più per avere la stessa cosa...Secondo me questo è l'unico problema di nvidia, ora(tralasciando consumi e temperature, a cui tante persone, come me, non badano)...abbassando i prezzi, e rendendoli simili a quelli di ati, venderebbe di più...
Ora come ora l'unica cosa per cui varrebbe comprare una geforce è il physx, in certi giochi è davvero ben sviluppato e aggiunge ottimi effetti al gioco...
Giovamas
16-09-2010, 14:43
Ciao. Io son fanboy (che brutta parola..) delle prestazioni.. come tanti ragazzi qui sul forum. Sono felice possessore di una 480GTX e prima avevo una 5850 sapphire che ho venduto ad un amico. Reputo la 480GTX la miglior scheda che abbia mai avuto. Se la soluzione ati sarà superiore.. benissimo ne sarò contentissimo e mi salirà di nuovo la scimmia:)
bluefrog
16-09-2010, 14:46
Ciao. Io son fanboy (che brutta parola..) delle prestazioni.. come tanti ragazzi qui sul forum. Sono felice possessore di una 480GTX e prima avevo una 5850 sapphire che ho venduto ad un amico. Reputo la 480GTX la miglior scheda che abbia mai avuto. Se la soluzione ati sarà superiore.. benissimo ne sarò contentissimo e mi salirà di nuovo la scimmia:)
Credo che sarà superiore ma di poco... se proprio vuoi passare ad ATI più che altro lo farei per i minor consumi e calore prodotto. Comunque è ovviamente tutto da vedere, specie in condizioni di tesselation estremo.
killer978
16-09-2010, 14:49
Reputare la GTX480 un ottima scheda lo trovo assurdo, un chippone enorme che scalda consuma + di un dual chip ATI ed e poco sopra una singola 5870 prestazionalmente non la considero , ripeto, ottima scheda
Giovamas
16-09-2010, 14:50
Credo che sarà superiore ma di poco... se proprio vuoi passare ad ATI più che altro lo farei per i minor consumi e calore prodotto. Comunque è ovviamente tutto da vedere, specie in condizioni di tesselation estremo.
Vedremo i benchs cosa diranno. Già immagino la guerra all'ultimo fps di metro/COD. Si tesselation ed implementazione della Physx. in effetti quando sono salito di 20 gradi cambiando da ati ad nvidia mi prese un colpo:D ma sono contentissimo ed in fondo, sono riuscito a gestire la situazione. Ma queste nuove ATI mi ispirano non poco :)
Giovamas
16-09-2010, 14:51
Reputare la GTX480 un ottima scheda lo trovo assurdo, un chippone enorme che scalda consuma + di un dual chip ATI ed e poco sopra una singola 5870 prestazionalmente non la considero , ripeto, ottima scheda
Ciao:) Per me lo è. Come lo era la 5850.
masty_<3
16-09-2010, 14:51
Si scusami, la nomenclatura dei chip nvidia me la confondo sempre. Penso sempre che un gf106 sia più potente di un gf104. Sono abituato con la nomenclatura della Radeon ;)
Sìsì d'altronde conosciamo tutti nvidia, perdonato :D
guardate qui:
http://www.tomshw.it/cont/news/amd-manda-ko-nvidia-sono-le-radeon-le-piu-amate/26472/1.html in fondo... nvidia ha perso quasi il 10% dall'anno scorso, e ati ha guadagnato circa il 6%...
Nvidia avrà sempre la scheda più veloce (9800gtx+\gtx285-295\gtx480, ecc.....) però se le stesse prestazioni dalla parte di ati costano 20-30% in meno, non vedo perchè uno debba spendere di più per avere la stessa cosa...Secondo me questo è l'unico problema di nvidia, ora(tralasciando consumi e temperature, a cui tante persone, come me, non badano)...abbassando i prezzi, e rendendoli simili a quelli di ati, venderebbe di più...
Ora come ora l'unica cosa per cui varrebbe comprare una geforce è il physx, in certi giochi è davvero ben sviluppato e aggiunge ottimi effetti al gioco...
Beh, comunque non è che una 5970 vada esattamente peggio di una gtx480 eh....
non capisco in che senso la 480 si reputa un'ottima scheda...
sotto il profilo delle prestazioni è sotto alla 5970
idem per il calore
idem per i consumi
poi se si tira fuori la storia della singola gpu, francamente me ne frega poco che dentro ci siano 1, 10, 100 gpu, so solo che la scheda è 1, e Nvidia non ha la scheda più veloce/efficiente.
Ciao. Io son fanboy (che brutta parola..) delle prestazioni.. come tanti ragazzi qui sul forum. Sono felice possessore di una 480GTX e prima avevo una 5850 sapphire che ho venduto ad un amico. Reputo la 480GTX la miglior scheda che abbia mai avuto. Se la soluzione ati sarà superiore.. benissimo ne sarò contentissimo e mi salirà di nuovo la scimmia:)
sono più le volte che il tuo case è aperto per cambiare vga, che quelle in cui è chiuso per giocare, insomma.
longhorn7680
16-09-2010, 15:07
Reputare la GTX480 un ottima scheda lo trovo assurdo, un chippone enorme che scalda consuma + di un dual chip ATI ed e poco sopra una singola 5870 prestazionalmente non la considero , ripeto, ottima scheda
Dai non arriviamo alle bestemmie! La 480 e un'ottima scheda, sotto alla 5970 e vero ma con il riallineamento dei prezzi costa il giusto! E poi e un buon 20% sopra la 5870, anche se a dire il vero per chi non va otre il FullHD son soldi buttati perche 100 o 150FPS non cambia nulla!
Il discorso consumi-calore non lo considero proprio! Chi spende 400Eur di VGA non si pone il problema dei 2-3 eur sulla bolletta al mese!
Giovamas
16-09-2010, 15:08
:D ma no.. fino a novembre scorso avevo una 9800... e comunque lo so bene che la 5970 è di un'altro pianeta o quasi e la 5870/5850 sono più efficente. presi la 480GTX perchè la trovai a prezzo abbastanza buono ed o piazzato bene la 5850 (al prezzo in cui la pagai). Ma questi sono altri discorsi OT. Non mi piace sentire definire il Fermi una sola solo sulla base di qualche rece.. basta leggere il nostro 3d qui in hwu... Io ho ripreso a giocare con la 480. E se le nuovi ATI come sembra saranno superiori oltre che in efficenza anche in prestazioni.. ben venga
suneatshours86
16-09-2010, 15:33
il nocciolo della questione è che nvidia sta pagando a caro prezzo le scelte intraprese nell'ultimo anno. Chi ha passione per seguire il mondo e l'evoluzione di questo mercato ha capito che nvidia non ha lavorato bene e si è aggrappata a tecnologie fantasma che non hanno pagato (physix), senza contare il quantitativo di rebranding che non sono certo passati inosservati. AMD dopo un quasi fallimentare r600 si è rimboccata le maniche e sta lavorando benissimo. la serie 5xxx è pressochè perfetta e a distanza di un anno tutti i prodotti di quest'ultima hanno rapporto prestazioni/prezzo migliore della controparte nvidia. Nvidia non fallirà per ovvi motivi, è una grandissima azienda. ora come ora sono felice che il mercato si stia ribaltando: è un successo per noi consumatori.
Markk117
16-09-2010, 15:36
belle ste schede non vedo l'ora che escano, magari potrei farci un pensierino... anche se la mia 4870x2 fa ancora troppo bene il suo lavoro, grazie al rallentamento di grafica offerto dalle console! certo ha qualche peca ma niente di troppo grave!
Nvidia ormai non ha + senso consuma e scalda troppo rispetto alla controparte! signori, consumi e temperature sono parametri da tenere perfettamente in conto!!
La serie HD5xxx ha smesso di avere il miglior rapporto prestazioni/prezzo da diciamo 2-3 mesi, e non che ci voglia molto a scoprirlo, basta dare un'occhiata ai listini e le recensioni.
Con la HD6xxx in cantiere, vedremo come si ricollocheranno, e quali saranno i prodotti in uscita d'Nvidia.
Si specula tanto su prestazioni e caratteristiche da ambo le parti, ma è certo che per la fine dell'anno ci sarà una bella scelta.
Mammia ragazzi va bene essere fanboy ma 3/4 di quello che è scritto in queste pagine potrebbe essere inserito nella fiaba di cappuccetto rosso...alterno ATI ed Nvidia perchè da consumatore
non mi interessa il primato dell'una o dell'altra ma mi interessa ciò che compro al prezzo più concorrenziale del mercato visto che non è una finale di Champions League(allucinante)...cerco di fare delle considerazioni oggettive sui pochi dati che abbiamo in possesso:
1)Le basse temperature ed i bassi consumi delle schede 5000 di Ati sono indiscutibili.
2)Le migliori prestazioni velocistiche della GTX 480 su singola scheda sono altrettanto indiscutibili
(il 20% sulla 5870?anche in directx 11?guardate bene i benchmark sui giochi perfavore poi ne riparliamo)
3)Il consumo della GTX 480 e qui regna la castroneria quotidiana...il leggendario consumo della GTX 480 di 320 watt viene raggiunto solo con Furmark...ma voi giocate a Furmark?Ci sono svariate recensioni in rete anche di utenti che hanno utilizzato il tester per cui il consumo della scheda varia nei giochi da 230 a 270 watt!!Sempre di più di una 5870 ma non mi sembra scandaloso viste le prestazioni!!
4)Le temperature e qui ci risiamo...la maggior parte degli utenti che hanno la GTX 480 non arrivano nenche a 80° in full load..i 95° sono casi limite in cui il case non è ben areato!!Per onestà Ati comunque sta nettamente al di sotto.
5)Come mai la futura top di gamma Ati ha un connettore da 8 pin ed uno da 6 pin per l'alimentazione e nessuno si lamenta dei consumi come per la GTX 480?La scheda madre fornisce allo slot pci-ex 75 watt , ogni connettore da 6 pin altri 75 watt , quindi totale 75+75+75 se la matematica non è un'opinione fa 225 watt?Ora un connettore da 8 pin può fornire 150 watt ovvero altri 75 watt , quindi 225 + 75 = 300.Anche se la scheda non cosumi 300 watt parte da un consumo di 225 watt a salire(a meno che Ati abbia messo un connettore da 8 pin per divertimento),mi spiegate cortesemente grazie a quale magia riesce a comsumare meno di una GTX 480 che a parte per chi gioca a Furmark consuma nei giochi dai 230 ai 270 watt?
6)Ati ha avuto(giustamente) il monopolio del mercato per un anno ed ha acquisito un vantaggio temporale che sta ancora sfruttando.
7)Da consumatore mi interessa la concorrenza non mi viene nulla in tasca se l'Oscar lo danno ad Ati od Nvidia.
8)Mi auguro che Ati sviluppi una scheda architetturalmente evoluta e che consumi e scaldi poco così come mi auguro che Nvidia faccia altrettanto ma la nota dolente è il consumo della futura top di Ati.
Ma nessuno ha pensato che negli ultimi 10 anni , nonostante il processo produttivo sia sempre sceso , i consumi delle schede sono sempre e solo saliti?
9)Nel mercato di fascia media Ati ha avuto ed ha il predominio , solo la GTX 460 sembra concorrenziale ma è comunque uscita troppo in ritardo.
10)Nota puramente di mercato, il fatturato ed il guadagno(in realtà è la raccolta) sono 2 cose ben diverse ma i ricavi(la voce più importante per una azienda) si calcolano sulla raccolta non sul fatturato.
Ciao a tutti.
beh, nvidia per risollevarsi, e per evitare di lasciare altri 7 mesi di campo libero ad ATI, non altra scelta che quella di STUPIRE tutti, e di darsi una sonora svegliata.
Si ma il pp non dipende mica da lei. Se i 28 nm non ce l'ha ati, che è anche in "vantaggio" in quanto a tempi, non ce l'ha nemmeno nvidia.
Spero solo che le Radeon 6000 non rappresenteranno il colpo del ko per nvidia, che dopo aver recuperato un pò di competitività con le GTX460 si ritroverà di nuovo molto indietro.
@sbudellaman mi sono chiesto la stessa cosa anche io...
8)Mi auguro che Ati sviluppi una scheda architetturalmente evoluta e che consumi e scaldi poco così come mi auguro che Nvidia faccia altrettanto ma la nota dolente è il consumo della futura top di Ati.
Ma nessuno ha pensato che negli ultimi 10 anni , nonostante il processo produttivo sia sempre sceso , i consumi delle schede sono sempre e solo saliti?
Non è proprio così.
E' vero che i consumi sono saliti, però è pur vero che le prestazioni sono aumentate in maniera più che proporzionale rispetto al consumo. Oppure, a parità di prestazioni, le schede moderne consumano meno.
suneatshours86
16-09-2010, 16:20
La serie HD5xxx ha smesso di avere il miglior rapporto prestazioni/prezzo da diciamo 2-3 mesi, e non che ci voglia molto a scoprirlo, basta dare un'occhiata ai listini e le recensioni.
epic lol.
scusa eh non per fare la punta al chiodo o per alzare un polverone ma una (gtx460) vga decente su un'intera gamma non mi sembra proprio indichi il miglior rapporto prestazioni/prezzo dell'intera gamma. una rondine non fa primavera. se nella fascia dei 150€ puoi anche consigliare una nvidia sotto ai 150 e sopra ai 150 cos'altro rimane?.. .. una gtxEHM .. ah già che non esiste. no anzi una bella gtx470 o 465 .. altro epic fail.
si chiama obbiettività cosa che manca a molti :/ a chi scrive questo tipo di commenti soprattutto.
Kharonte85
16-09-2010, 16:31
Bravi così vi vogliamo: dietro le linee nemiche :cool:
Comunque questo almeno ci conferma che il bus rimane invariato (date le voci improbabili che volevano ampiezze diverse)
Non è proprio così.
E' vero che i consumi sono saliti, però è pur vero che le prestazioni sono aumentate in maniera più che proporzionale rispetto al consumo. Oppure, a parità di prestazioni, le schede moderne consumano meno.
Mi riferivo in particolare alla fascia enthusiast dove in consumi sono saliti e continuano a salire proporzionalmente alle prestazioni.
Ciao;)
epic lol.
scusa eh non per fare la punta al chiodo o per alzare un polverone ma una (gtx460) vga decente su un'intera gamma non mi sembra proprio indichi il miglior rapporto prestazioni/prezzo dell'intera gamma. una rondine non fa primavera. se nella fascia dei 150€ puoi anche consigliare una nvidia sotto ai 150 e sopra ai 150 cos'altro rimane?.. .. una gtxEHM .. ah già che non esiste. no anzi una bella gtx470 o 465 .. altro epic fail.
si chiama obbiettività cosa che manca a molti :/ a chi scrive questo tipo di commenti soprattutto.
Non è proprio così ;)
per chi vuole risparmiare...una 460 1GB sotto i 200 euro...è un ottimo acquisto.
Per chi intende spendere di più...si puo scegliere tra una 5850/470 che sono allineate. Chi propende per un overclock moderato prende Ati...e invece per chi vuole un hard overclock prenderà Nvidia (custom o liquido), spendendo di più per il raffreddamento.
A mio parere oltre i 300 euro...l'unica scelta è la 5970. Le 5870/480 per un motivo o per l'altro...non valgono la spesa.
...
cerco di fare delle considerazioni oggettive sui pochi dati che abbiamo in possesso:
...
E meno male che erano commenti oggettivi.
- hai stabilito i consumi di una scheda di cui conosci soltanto il tipo di connettori;
- ti sei scordato che esiste anche un rapporto prestazioni/consumi, percui non ha senso giudicare un prodotto non ancora uscito di cui non si conosce nulla;
- hai detto che la GTX480 è la scheda singola più veloce scordandoti la HD5970;
- hai affermato che i consumi negli ultimi 10 anni sono sempre saliti, dimenticandoti che la serie HD5xxx0 ha consumi inferiori alla serie HD4xx0, con prestazioni superiori;
- hai detto che una differenza prestazionale del 20% tra HD5870 e GTX480 è troppo poco:
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/images/perfrel_1920.gif
P.S. Questo è un grafico di qualche mese fa, sicuramente con i nuovi driver qualcosa è migliorato, ma certamente le differenze tra queste due VGA non sono quelle dette da te.
10%.
saranno arrivato al 20% ora che anche i driver nvidia sono più maturi per FERMI.
ammesso che anche i driver più maturi per ATI(in quel test leggo 10.3 e siamo ai 10.9) non abbiano ricolmato a loro volta il divario, riportando la situazione su un +15% per la 480.
Gli ultimi "Relative Performance" in FullHD di TechPower parlano di un 15% circa.
Stappern
16-09-2010, 16:46
Beh atti sarà anche partita male,ma con le 460 in giro a 140 € diciamo che è ora per ati di tirare fuori una nuova serie,perché poi tanto il mercato si vede li e sulle fasce sub 80
+Benito+
16-09-2010, 16:49
Chiarisco, onde evitare malintesi. Non ho la scheda con me; l'ho vista, tenuta in mano, analizzata e restituita.
Non sono sotto NDA con AMD al momento su questo prodotto.
Non conosco la data di lancio, che presumo essere nel Q4 e indicativamente, a sensazione, entro 5-6 settimane come massimo.
Se fossi sotto NDA non avrei pubblicato questa news; se sapessi ufficialmente la data di lancio non la potrei comunicare.
Abbiamo scelto di non pubblicare immagini di questa scheda, per proteggere la nostra fonte
Scusa? :mbe:
Ti rispondo sui singoli punti perchè forse non mi sono spiegato:
- hai stabilito i consumi di una scheda di cui conosci soltanto il tipo di connettori;
Se metti un connettore da 6 pin ed uno da 8 pin il consumo minimo di una scheda è 225 watt altrimenti non avrebbe senso metterne uno da 8 non credi?
ti sei scordato che esiste anche un rapporto prestazioni/consumi, percui non ha senso giudicare un prodotto non ancora uscito di cui non si conosce nulla;
Non ho giudicato un rapporto prestazioni/consumi(dove l'hai letto scusa?) ho solo calcolato il consumo minimo della scheda come scritto sopra..è ovvio che non ha senso giudicare le prestazioni di una scheda che deve ancora uscire.
- hai detto che la GTX480 è la scheda singola più veloce scordandoti la HD5970;
Intendevo singola gpu , mi sembrava ovvio , la 5970 è superiore.
- hai affermato che i consumi negli ultimi 10 anni sono sempre saliti, dimenticandoti che la serie HD5xxx0 ha consumi inferiori alla serie HD4xx0, con prestazioni superiori;
Mi riferivo alla fascia enthusiast , ho già risposto prima ad un altro utente , ormai su gpu singola con la serie 6000 Ati supera i 225 watt.
hai detto che una differenza prestazionale del 20% tra HD5870 e GTX480 è troppo poco
Anche qui... ho scritto giochi in directx 11, la replica su tutto va bene però almeno leggi quello che scrivo,ciao.;)
Ziogualty
16-09-2010, 16:52
Ok, la moda del momento è la guerra tra fanboy.
Senza nemmeno rendersi conto che la concorrenza è l'unica arma in mano ai consumatori.
Tutti a ridere di Nvidia mentre una qualunque vga ati (stesso produttore, stessa cpu, stesso clock, stessa architettura, stessi adesivi) è aumentata dal giorno del lancio solo per sfruttare il buco.
Le stesse persone che urlavano allo scandalo per i consumi nvidia (4 euro in più sulla bolletta a bimestre), erano ben felici di pagare 20, 30 euro in più il nulla assoluto solo per becero fruttamento di un temporaneo monopolio da parte dei loro paladini.
Ehhhh ma scalda!!! Manco la montasssero come sospensorio dentro i pantaloni.
E se cambieranno gli strumenti, lo spartito sarà lo stesso quando nvidia (presto o tardi) tornerà superiore in tutto ad Ati: i fanboy Nvidia usciranno dai cespugli e renderanno pan per focaccia.
Su un articolo del genere sarebbe sensato commentare (come si faceva con Fermi) "aspettiamo di legegre qualche bench o qualche dato reale", potrei capire anche "Urrah, sarà una ficata brava ATI", ma niente, è più importante prendere in giro Nvidia manco vi avesse ciulato la donna.
Però fa "pro", fa molto "io ci capisco una cifra".
Eppure da profano penso: si perculeggia Nvidia per i consumi (che in realtà condizionano solo il prezzo della bolletta), per le temperature (che alla lunga al massimo bruciano la scheda dunque altro esborso)..alla fine la questione è: i soldi buttati da chi compra.
E non si muove paglia sugli aumenti assolutamente ingiustificati di ati fino a pochi mesi fa, oppure sul fatto che una MSI 460gtx Hawk in italia la si trova tra i 250 e i 300 euro, quando in america la vendono (cambio e spedizione e due giochi omaggio) a 200 euro secchi.
Quelli non sono soldi uguale? Si, ma alla fine parlare di questo non fa pro come invece disquisire su stream processor, pin da 8 e da 6 e temperature varie.
Foglia Morta
16-09-2010, 16:55
Ti rispondo sui singoli punti perchè forse non mi sono spiegato:
Se metti un connettore da 6 pin ed uno da 8 pin il consumo minimo di una scheda è 225 watt altrimenti non avrebbe senso metterne uno da 8 non credi
Se ricordo bene nella 2900 c' era il 6 + 8 ma ATi diceva che si potevano collegare anche solamente 2 connettori da 6pin senza problemi , il 6 + 8 era necessario per poter abilitare l' overdrive da CCC. Quindi la cosa non sarebbe così automatica come credi, bisogna attendere i test.
Gli aumenti non li ha fatti ATI... ;) Il prezzo ufficiale è stato sempre lo stesso... Poi la legge della domanda e dell'offerta ha fatto il resto... ;)
epic lol.
scusa eh non per fare la punta al chiodo o per alzare un polverone ma una (gtx460) vga decente su un'intera gamma non mi sembra proprio indichi il miglior rapporto prestazioni/prezzo dell'intera gamma. una rondine non fa primavera. se nella fascia dei 150€ puoi anche consigliare una nvidia sotto ai 150 e sopra ai 150 cos'altro rimane?.. .. una gtxEHM .. ah già che non esiste. no anzi una bella gtx470 o 465 .. altro epic fail.
si chiama obbiettività cosa che manca a molti :/ a chi scrive questo tipo di commenti soprattutto.
Tra i 140 ed i 190 euro, ci sono solo le GTX460 768/1Gb.
A 200 euro, ci sono le 1Gb oc che vanno tanto quanto la più costosa HD5850 (230-240 euro).
La GTX470 costa 10 euro in più della HD5850 ed 80 euro in meno della HD5870, pur avendo pressochè le prestazioni di quest'ultima.
La GTX480 costa 390 euro, mentre la HD5870 ne costa 325 e la 2Gb costa 400 euro, pur andando meno della 480.
Se entri nell'ordine di idee di una dual gpu e di puntare al top con i suoi pro e contro, la HD5970 2x1Gb costa 500 euro, mentre 2x GTX460 1Gb costano 380 euro e 2x GTX460 2Gb costano 430 euro e vanno praticamente uguale (sul 5% di differenza).
Adesso puoi pure continuare a lollare, ma di certo il mio commento è stato molto più obiettivo di altri letti in questo thread :)
Se ricordo bene nella 2900 c' era il 6 + 8 ma ATi diceva che si potevano collegare anche solamente 2 connettori da 6pin senza problemi , il 6 + 8 era necessario per poter abilitare l' overdrive da CCC. Quindi la cosa non sarebbe così automatica come credi, bisogna attendere i test.
L'overdrive da CCC è l'overclock automatico della GPU...probabilmente chi non overclocka la scheda può mettere anche solo 2 connettori da 6 pin:asd:
Foglia Morta
16-09-2010, 17:01
L'overdrive da CCC è l'overclock automatico della GPU...probabilmente chi non overclocka la scheda può mettere anche solo 2 connettori da 6 pin:asd:
Cosa c' è da ridere ?
Cosa c' è da ridere ?
Ma è una battuta no che stiamo col fucile puntato?Ciao;)
Foglia Morta
16-09-2010, 17:05
Ma è una battuta no che stiamo col fucile puntato?Ciao;)
Ok, a me bastava chiarire che tanto oggettivo non sei stato, tutto qui ;)
ghiltanas
16-09-2010, 17:13
precisiamo inoltre che 2 connettori da 6+8 indicano un TDP, nn un consumo, di almeno 225w ;)
CosasNostras
16-09-2010, 17:14
ci gira crysis2? :stordita:
giammai !:D
da quando le vga servono per riprodurre un videogioco?sennò il 3dmark a che servono?
Ok, a me bastava chiarire che tanto oggettivo non sei stato, tutto qui ;)
Non c'è problema figurati , io ho avuto Ati ed Nvidia e mi sposto a seconda delle prestazioni , sul discorso consumi però non è che non sono obiettivo ma sono abbastanza pessimista perchè nel corso degli anni , parlo delle schede di fascia enthusiast , i consumi sono andati a salire ed è alquanto improbabile che Ati con lo stesso processo produttivo di 40 nm della serie precedente ma con prestazioni superiori metta un connettore da 8 pin "accessorio" come dici,ciao;)
Se metti un connettore da 6 pin ed uno da 8 pin il consumo minimo di una scheda è 225 watt altrimenti non avrebbe senso metterne uno da 8 non credi?
No, non credo, si testano i consumi delle VGA nelle varie situazioni proprio perchè non è sufficiente conoscere i connettori per determinarli. Infatti VGA che hanno gli stessi connettori, si comportano in modo nettamente diverso in fatto di consumi.
Non ho giudicato un rapporto prestazioni/consumi(dove l'hai letto scusa?) ho solo calcolato il consumo minimo della scheda come scritto sopra..è ovvio che non ha senso giudicare le prestazioni di una scheda che deve ancora uscire.
Bisogna vedere quanto una VGA consuma di più e quante prestazioni in più offre per valutare i consumi: se il chip grafico del mio portatile consumasse come una HD5870 direi che consuma tanto, se mi riferisco ad una HD5870 dico che consuma poco.
Quando scrivi "la nota dolente è il consumo della futura top di Ati", scrivi una frase che a mio avviso è senza senso, non conoscendo consumi e prestazioni.
Intendevo singola gpu , mi sembrava ovvio , la 5970 è superiore.
Singola scheda è una cosa, singola gpu un'altra, per me non era ovvio, adesso siamo d'accordo. Del resto considerare anche la singola scheda più veloce ha un senso (e non esclusivamente la singola scheda a singola gpu).
Mi riferivo alla fascia enthusiast , ho già risposto prima ad un altro utente , ormai su gpu singola con la serie 6000 Ati supera i 225 watt.
Tu hai detto che il consumo negli utlimi 10 anni è sempre aumentato. Ora correggi dicendo che intendi nella fascia enthusiast, ma sbagli ancora: la HD5870 è uscita lo scorso anno e consuma meno della precedente HD4870, e parliamo di fascia enthusiast.
A meno che tu per VGA degli ultimi dieci anni non intenda solamente una VGA non ancora uscita di cui solo tu conosci i consumi
Anche qui... ho scritto giochi in directx 11, la replica su tutto va bene però almeno leggi quello che scrivo,ciao.;)
E' dura leggere quello che scrivi tra correzioni e smentite, io parlavo di prestazioni generali che comprendono le Dx11 (o almeno il poco che c'è), del resto, a parte qualche benchmark, non mi pare ci sia molto che utilizzi a fondo le Dx11. Se intendi i giochi attuali con Dx11, riconfermo quanto detto, la differenza non è quella detta da te.
Il problema non sono le inesattezze o le opinioni da te scritte, su cui si può essere d'accordo o meno, ma il fatto che sei uscito criticando gli interventi prcedenti bollandoli come da FanBoy (come purtroppo fanno in molti), dando invece il bollino di "considerazioni oggettive" a delle tue opinioni, che come tali sono di tutto rispetto, ma sono tutto fuorchè oggettive (e il fatto che qualcuno non sia d'accordo con te ne è la prova, visto che le cose oggettive lo dovrebbero essere per tutti).
Foglia Morta
16-09-2010, 17:19
Non c'è problema figurati , io ho avuto Ati ed Nvidia e mi sposto a seconda delle prestazioni , sul discorso consumi però non è che non sono obiettivo ma sono abbastanza pessimista perchè nel corso degli anni , parlo delle schede di fascia enthusiast , i consumi sono andati a salire ed è alquanto improbabile che Ati con lo stesso processo produttivo di 40 nm della serie precedente ma con prestazioni superiori metta un connettore da 8 pin "accessorio" come dici,ciao;)
Già infatti nel passato "recente" abbiamo visto la 4890 con connettori 6 + 8 che era proprio "accessorio" per facilitare i partner AIB nel presentare prima versioni custom altamente overclockate ( da 850 della reference a 1Ghz di alcuni modelli ). Se hai detto una fesseria nessuno te ne fa una colpa ;)
zamboqdb
16-09-2010, 17:29
Mi sono bagnato.. :D
R.Raskolnikov
16-09-2010, 17:41
Da parecchi commenti che leggo, pare che le aziende appartengano ai commentatori!! Non si riesce proprio a NON difendere il proprio acquisto in barba ad ogni obiettività, ma sopratutto in barba ad ogni notizia certa o ragionamento fondato. Un fanboy nVidia dovrebbe essere contento che la controparte dia del filo da torcere, o preferite i regimi dittatoriali?
Evidentemente l'Italia è ancora un paese di monarchici.
Personalmente penso che aumentare le richieste energetiche rappresenti sempre una mezza sconfitta...io preferirei schede che consumino sempre meno, non il contrario.
2-300watt per una scheda video mi pare una follia...ed a questo non m'abituerò mai.
Ciao :-)
5)Come mai la futura top di gamma Ati ha un connettore da 8 pin ed uno da 6 pin per l'alimentazione e nessuno si lamenta dei consumi come per la GTX 480?La scheda madre fornisce allo slot pci-ex 75 watt , ogni connettore da 6 pin altri 75 watt , quindi totale 75+75+75 se la matematica non è un'opinione fa 225 watt?Ora un connettore da 8 pin può fornire 150 watt ovvero altri 75 watt , quindi 225 + 75 = 300.Anche se la scheda non cosumi 300 watt parte da un consumo di 225 watt a salire(a meno che Ati abbia messo un connettore da 8 pin per divertimento),mi spiegate cortesemente grazie a quale magia riesce a comsumare meno di una GTX 480 che a parte per chi gioca a Furmark consuma nei giochi dai 230 ai 270 watt?
Spiegarlo in poche righe è difficile...comunque la magia non centra per nulla :D
A parità di prestazioni rispetto alla 480...Ati consumerà e scalderà decisamente meno.
6xxx è un accrocchio...che nasce esclusivamente a causa di TSMC, altrimenti avremmo una r7xxx che è tutto un altro pianeta, come il Fermi2.
Fermi nasce per i 28nm...ed è stata ripiegata per i 40nm. Da qui, tutti i problemi sia di efficienza che di calore. Le recensioni che riporti da parte degli utenti...generalmente...lasciano il tempo che trovano...sono solo fanboyate inaffidabili, di un marchio o dell'altro.
6xxx ripresenta con le opportune migliorie...il progetto 5xxx vecchio di almeno 2 anni...il che sta a significare, che non solo avremo un aumento di prestazioni più che proporzionale rispetto all'incremento dei consumi...ma anche il relativo abbassamento a parità di prestazioni con la serie precedente.
i 300 w con 6+8 pin...rappresentano il max ipotizzabile (per l'overclock). Il fatto che Ati abbia propeso per tale alimentazione, significa che una scheda stock messa sotto sforzo, consumerà (FORSE) oltre i 225 w. Nei casi limite.
la 5850 è un esempio in tal senso...di come vengano strutturati i consumi nei prodotti Ati....la scheda stock, in FULL non supera i 130 w...quindi...sarebbe bastato un solo connettore a 6 PIN...eppure ne troviamo 2.
Quando si parla di efficienza...mentre Ati esagera nei connettori per MKT=gli appassionati...Nvidia quest'anno...ha dovuto farlo per necessità.
Conseguentemente...se il gf100 lo "maggioriamo" dai 28nm ai 40nm...tutta l'efficacia del progetto va a farsi benedire...e ciò è riscontrabile fin da una freschissima 460: con un overclock estremo del 50%...restituisce mediamente un incremento del 20%, a differenza della 5850 che nella stessa condizione, restituisce circa il doppio dell'incremento.
Per questi motivi...gli appassionati hanno snobbato la 480 a favore della 5970. E a prescindere dal prezzo e/o features di una o dell'altra...il motivo principale è l'efficienza. E questo non vale solo per gli hobbysti più sfegatati
...ma anche per un acquirente...tranquillo.
Discorso diverso per la 470 che rientra in una fascia di mercato medio/alta
...dove regnano una pletora di variabili che possano spingere un acquirente verso un marchio o l'altro.
Fatto sta...(questo che ti scrivo è solo un esempio inventato per spiegarmi meglio)...che salvo il fatto che in ATI siano impazziti del tutto...è plausibile aspettarsi un consumo simile alla 480 ma con prestazioni superiori nell'ordine di un 15%...man mano che si scende con le prestazioni, il "risparmio" sarà più che proporzionale. Quindi a parità di prestazioni con una 480 in FULL (270 W???)...la nuova ATI non consumerà 230 W (270-15%) ma 220 circa...e così via a scendere con le prestazioni.
I Fermi del 2010...sono spremuti al 90% già in origine...a differenza di ATi dove il prodotto è sfruttato si e no al 70%.
Un altro esempio lo sono gli autoveicoli...un'autovettura con 70kw di potenza...ad una velocità di crociera pari a 130 km/h...consumerà decisamente di più rispetto ad un'altra con 120 Kw, alla medesima velocità.
Spero ti sia più chiaro il perchè delle differenze architetturali, in termini di efficienza...non è il max come spiegazione ma credo sia più che sufficiente.
Ogni volta che leggo sti commenti negativissimi mi chiedo quanti abbiano provato fermi prima di devastarlo.... Ovviamente è una domanda retorica visto che la risposta è nessuno
Comunque queste 6xxx sono una evoluzione di vga già ottime (avevo una 5870), quindi il risultato dovrebbe essere estremamente valido. Attendo con curiosità :D
No, non credo, si testano i consumi delle VGA nelle varie situazioni proprio perchè non è sufficiente conoscere i connettori per determinarli. Infatti VGA che hanno gli stessi connettori, si comportano in modo nettamente diverso in fatto di consumi.
Fino ad ora , a parte il caso citato da Foglia Morta di cui sinceramente non ero a conoscenza non ricordo schede che non sfruttino i l'alimentazione richiesta dai connettori(non tutta ovviamente ma una parte).
Bisogna vedere quanto una VGA consuma di più e quante prestazioni in più offre per valutare i consumi: se il chip grafico del mio portatile consumasse come una HD5870 direi che consuma tanto, se mi riferisco ad una HD5870 dico che consuma poco.
Quando scrivi "la nota dolente è il consumo della futura top di Ati", scrivi una frase che a mio avviso è senza senso, non conoscendo consumi e prestazioni.
Non riesco a farmi capire , non sto mettendo in relazione i consumi con le prestazioni , mi sembrava di essere stato chiaro.Ma scusami , se ti propongono una scheda 5 volte più veloce di una 5870 e che consuma 5 volte tanto(ovvero circa 1000 watt) per te va bene?
Singola scheda è una cosa, singola gpu un'altra, per me non era ovvio, adesso siamo d'accordo. Del resto considerare anche la singola scheda più veloce ha un senso (e non esclusivamente la singola scheda a singola gpu).
Ho sbagliato perchè ho avuto sempre solo una scheda con una gpu per cui l'associazione è automatica.
Tu hai detto che il consumo negli utlimi 10 anni è sempre aumentato. Ora correggi dicendo che intendi nella fascia enthusiast, ma sbagli ancora: la HD5870 è uscita lo scorso anno e consuma meno della precedente HD4870, e parliamo di fascia enthusiast.
A meno che tu per VGA degli ultimi dieci anni non intenda solamente una VGA non ancora uscita di cui solo tu conosci i consumi
Ma santo cielo quando parlo di ultimi 10 anni ma mi vuoi dire che una scheda di 10 anni fa' consuma quanto una di oggi.
Che ti devo dire sono io che scrivo arabo , guarda questa tabella e mancano comunque le schede precedenti:
http://www.tomshw.it/graphic.php?guide=20090121&page=schede-video-alimentatori-09
E' dura leggere quello che scrivi tra correzioni e smentite, io parlavo di prestazioni generali che comprendono le Dx11 (o almeno il poco che c'è), del resto, a parte qualche benchmark, non mi pare ci sia molto che utilizzi a fondo le Dx11. Se intendi i giochi attuali con Dx11, riconfermo quanto detto, la differenza non è quella detta da te.
Mi riferisco a Dirt2 , Metro 2033 , Lost Planet 2...certo non è che ce ne sono a decine , tra l'altro bisogna trovare dei benchmark con gli ultimi driver , questo è il più recente che ho trovato:
http://www.geeks3d.com/20100817/test-lost-planet-2-dx11-tessellation-benchmark-geforce-gtx-400-vs-radeon-hd-5000/
Il problema non sono le inesattezze o le opinioni da te scritte, su cui si può essere d'accordo o meno, ma il fatto che sei uscito criticando gli interventi prcedenti bollandoli come da FanBoy (come purtroppo fanno in molti), dando invece il bollino di "considerazioni oggettive" a delle tue opinioni, che come tali sono di tutto rispetto, ma sono tutto fuorchè oggettive (e il fatto che qualcuno non sia d'accordo con te ne è la prova, visto che le cose oggettive lo dovrebbero essere per tutti).
No il problema è che tu stesso su 10 punti hai criticato solo quelli contro Ati e non quelli a favore...come mai?
E come mai sulla GTX 480 quando ancora non era uscita neanche una recensione ma si era a conoscenza del connettore da 8 pin è stata messa alla gogna per i consumi?
Ti dico la differenza tra me e te...io ho trovato punti a favore di Ati ed altri a favore di Nvidia..tu no come mai?
Ciao.;)
Strato1541
16-09-2010, 18:01
Incredibile come ci siano sempre i soliti difensori e attaccanti.. io dico solo una cosa, prima di scannarvi aspettate che escano.. perchè con tutto rispetto state parlando di aria!(anche quelli che credono di saperla lunga!)
La serie 6XXX non è stata ancora lanciata.. aspettate che esca!
Già infatti nel passato "recente" abbiamo visto la 4890 con connettori 6 + 8 che era proprio "accessorio" per facilitare i partner AIB nel presentare prima versioni custom altamente overclockate ( da 850 della reference a 1Ghz di alcuni modelli ). Se hai detto una fesseria nessuno te ne fa una colpa ;)
Ma hai letto quello che hai scritto , confermi quanto dico io , hanno messo il connettore da 8 pin appositamente per portare la scheda a frequenze più alte e quindi maggiori consumi:confused:
Strato1541
16-09-2010, 18:08
No il problema è che tu stesso su 10 punti hai criticato solo quelli contro Ati e non quelli a favore...come mai?
E come mai sulla GTX 480 quando ancora non era uscita neanche una recensione ma si era a conoscenza del connettore da 8 pin è stata messa alla gogna per i consumi?
Ti dico la differenza tra me e te...io ho trovato punti a favore di Ati ed altri a favore di Nvidia..tu no come mai?
Ciao.;)
Quoto.....
Ogni volta che leggo sti commenti negativissimi mi chiedo quanti abbiano provato fermi prima di devastarlo.... Ovviamente è una domanda retorica visto che la risposta è nessuno
Comunque queste 6xxx sono una evoluzione di vga già ottime (avevo una 5870), quindi il risultato dovrebbe essere estremamente valido. Attendo con curiosità :D
Ti quoto , non basta dire che Ati ha le temperature ed i consumi più bassi(parlo della serie 5000), che ha il dominio del mercato e che la 5970 è la scheda più veloce del mercato , no devo per forza ammettere che la gtx 480 è da buttare!!Ok è da buttare;)
Strato1541
16-09-2010, 18:18
Lascia stare è una battaglia persa..io dico aspettiamo che escano e poi si vedrà..
Guarda solo fino a 2 settimane fà mi davano del "fanboy" perchè osavo dire che non si sapeva se il socket am3 sarebbe stato compatibile con bulldozer e che bisognava aspettare.. e di conseguenza che il 1156 e l'am3 forse viaggiavano sulla stessa barca.. e che quindi scegliere una configurazione amd era una scelta di convenienza e non per futuri upgrade.. e ci stava di prendere anche un i5 o 7 per socket 1156.. no bombardato.. E dopo siamo noi i poco obiettivi!!!!Ora che è stato detto che non è compatibile il socket tutti zitti però..
Lo stesso vale qui aspettate per giudicare..
Ogni volta che leggo sti commenti negativissimi mi chiedo quanti abbiano provato fermi prima di devastarlo.... Ovviamente è una domanda retorica visto che la risposta è nessuno
Comunque queste 6xxx sono una evoluzione di vga già ottime (avevo una 5870), quindi il risultato dovrebbe essere estremamente valido. Attendo con curiosità :D
Fermi non si devasta...è solo un brutto anatroccolo...tempo al tempo.
Fammi pensare :D
o sei uno di quei fortunati che cambia hardware ogni volta che gira il vento...oppure lasciare una 5870 per una 480 significa che tanto a posto non sei. Se è il primo caso t'invidio...se è il secondo, un po' meno :Prrr:
sempre rimanendo al primo caso...è quasi ora di un nuovo acquisto ;)
Futura12
16-09-2010, 18:18
Ma hai letto quello che hai scritto , confermi quanto dico io , hanno messo il connettore da 8 pin appositamente per portare la scheda a frequenze più alte e quindi maggiori consumi:confused:
Maggiori consumi di cosa?
Più overclocchi e più consumi,ma quello è un problema tuo se la lasci a default il consumo è quello ''base'':rolleyes: ...se lo hanno messo è stato solo per permettere in overclock parecchio spinto di fornire sufficiente energia alla scheda grafica..
Di base è 6+6Pin...
Non è che se su una 8800GT ci metto 2x8 pin allora vuol dire che consuma 300w.
Da parecchi commenti che leggo, pare che le aziende appartengano ai commentatori!! Non si riesce proprio a NON difendere il proprio acquisto in barba ad ogni obiettività, ma sopratutto in barba ad ogni notizia certa o ragionamento fondato. Un fanboy nVidia dovrebbe essere contento che la controparte dia del filo da torcere, o preferite i regimi dittatoriali?
Evidentemente l'Italia è ancora un paese di monarchici.
Personalmente penso che aumentare le richieste energetiche rappresenti sempre una mezza sconfitta...io preferirei schede che consumino sempre meno, non il contrario.
2-300watt per una scheda video mi pare una follia...ed a questo non m'abituerò mai.
Ciao :-)
Il concetto fondemantale è questo ma pare non arrivi,ciao;)
Foglia Morta
16-09-2010, 18:19
Ma hai letto quello che hai scritto , confermi quanto dico io , hanno messo il connettore da 8 pin appositamente per portare la scheda a frequenze più alte e quindi maggiori consumi:confused:
Io ho detto che la reference potrebbe anche non averne bisogno, ma ce lo potrebbero mettere per velocizzare il lavoro dei partner AIB nel fare schede custom con frequenze superiori a quelle reference. Quindi con la reference potrebbe essere accessorio ( tu dicevi il contrario ) mentre potrebbe essere necessario per qualche versione particolarmente tirata.
Io ho detto che la reference potrebbe anche non averne bisogno, ma ce lo potrebbero mettere per velocizzare il lavoro dei partner AIB nel fare schede custom con frequenze superiori a quelle reference. Quindi con la reference potrebbe essere accessorio ( tu dicevi il contrario ) mentre potrebbe essere necessario per qualche versione particolarmente tirata.
Ok sicuramente Ati necessiterà solo per l'overclock dell'alimentazione ausiliaria del connettore ad 8 pin.
Ciao;)
Maggiori consumi di cosa?
Più overclocchi e più consumi,ma quello è un problema tuo se la lasci a default il consumo è quello ''base'':rolleyes: ...se lo hanno messo è stato solo per permettere in overclock parecchio spinto di fornire sufficiente energia alla scheda grafica..
Di base è 6+6Pin...
Non è che se su una 8800GT ci metto 2x8 pin allora vuol dire che consuma 300w.
Ma chi ha detto questo, se la gtx 480 nei giochi consuma in full tra i 230 ed i 270 watt ed Ati molto meno..ho detto solo che il massimo erogabile(sulla carta) per 6 pin + 8 pin è 300 watt.
Ciao;)
Fermi non si devasta...è solo un brutto anatroccolo...tempo al tempo.
Fammi pensare :D
o sei uno di quei fortunati che cambia hardware ogni volta che gira il vento...oppure lasciare una 5870 per una 480 significa che tanto a posto non sei. Se è il primo caso t'invidio...se è il secondo, un po' meno :Prrr:
sempre rimanendo al primo caso...è quasi ora di un nuovo acquisto ;)
La transazione mi è costata in tutto 40 euro (compro usato e vendo usato) il che mi sembra regionevole, e sinceramente non mi sono pentito per niente. Come ho detto su un altro post la scelta di una o dell'altra dipende dalle necessità dell'utente quindi non c'e una vga migliore o peggiore in valore assoluto (tranne casi eclatanti come ge-force 5xxx). A me dei consumi non me ne frega niente (li pago sti 2 euro in più al mese) le configurazioni multigpu le schifo (sia nvidia che ati) e lo dico da ex possessore di sli e crossfire. Infine per quanto riguarda le temperature levando furmark ingame sto sempre sui 75°, giusto con crysis arrivo ad 82-83. Le recensioni si basano sul profilo della ventola che c'e da BIOS che fà sempre schifo su quasi tutte le VGA, basta rifare quello e le temperature scendono di molto rispetto a quanto vedete sui bench, ed anche il rumore. Per farti capire a 70% la ventola non si sente mentre giochi e col profilo di default della ventola raggiungi quella rotazione a 90°, il trucco non è abbassare la temperatura quando si arriva a 90° ma evitare proprio di arrivarci quindi basta fare in modo che quando si gioca la ventola si piazza a 70% ed il gioco è fatto, non mi sembra complesso no?
Quindi ora ti faccio questa domanda... sulla base delle MIE necessità qual'e la vga migliore?
Lascia stare è una battaglia persa..io dico aspettiamo che escano e poi si vedrà..
Guarda solo fino a 2 settimane fà mi davano del "fanboy" perchè osavo dire che non si sapeva se il socket am3 sarebbe stato compatibile con bulldozer e che bisognava aspettare.. e di conseguenza che il 1156 e l'am3 forse viaggiavano sulla stessa barca.. e che quindi scegliere una configurazione amd era una scelta di convenienza e non per futuri upgrade.. e ci stava di prendere anche un i5 o 7 per socket 1156.. no bombardato.. E dopo siamo noi i poco obiettivi!!!!Ora che è stato detto che non è compatibile il socket tutti zitti però..
Lo stesso vale qui aspettate per giudicare..
Non è che io sia particolarmente ferrato in materia di CPU e chipset future...
Però..pur non essendo a conoscenza delle tua situazione in quei discorsi, innegabilmente...si tende sempre a privilegiare la piattaforma AMD per la sua indiscussa longevità.
Per esempio...tutti gli attuali utenti AMD...rimarranno con tale marchio, semplicemente perchè la mobo AM3+ sarà retrocompatibile al 100% con le CPU odierne.
Mentre chi sceglie Intel se lo prende in quel posto...sempre...ogni volta che c'è una novità come SB...bisogna cambiare mobo.
Se di punto in bianco...mi lasciasse per strada la CPU o la mobo...in questo istante, non avrei il minimo dubbio...mi prenderei una mobo AMD da 30 euro con una CPU più che discreta e memorie aggressive. Appena esce la mobo AM3+ non faccio altro che buttare quella da 30 euro (quando lo riterrò fattibile)...e tiro avanti per anni, sostituendo eventualmente solo la CPU. Un ragionamento come questo con Intel non è possibile...già sappiamo che Ivy avrà un altro socket:muro:
Se invece riesco ancora ad andare avanti con quello che ho attualmente...
farò le opportune valutazioni al momento opportuno: Q6600 usato? oppure cambierò tutto...SB? BD o Fusion?
dipenderà dal prezzo e dagli scopi....ma se tra le mie priorità vi è pure la longevità...la scelta rimane sempre e solo una.
Foglia Morta
16-09-2010, 18:45
Ok sicuramente Ati necessiterà solo per l'overclock dell'alimentazione ausiliaria del connettore ad 8 pin.
Ciao;)
Non ho detto "sicuramente" , sarebbe buona educazione evitare di mettere parole in bocca agli altri. Ho detto che è una possibilità... dato che ti volevi spacciare per "obiettivo" quando ti facevi tutti i tuoi bei calcoli ti ho fatto notare che con le due uniche schede single gpu di ATi con connettori 6 + 8 questi erano più "accessori" che fondamentali ;)
Futura12
16-09-2010, 18:46
Ma chi ha detto questo, se la gtx 480 nei giochi consuma in full tra i 230 ed i 270 watt ed Ati molto meno..ho detto solo che il massimo erogabile(sulla carta) per 6 pin + 8 pin è 300 watt.
Ciao;)
In teoria è come dici tu,perchè anche lo slot pci-express fornisce mi pare fino a 75w di corrente..se ci mettiamo un 6+8 pin si potrebbe arrivare ipoteticamente a 300w.
Ma questo è solo sulla carta,dubito che una 480GTX possa raggiungere 280w di consumo in OC..sarebbe una follia:fagiano: ,ma non dico di più perchè non ce l'ho.
La transazione mi è costata in tutto 40 euro (compro usato e vendo usato) il che mi sembra regionevole, e sinceramente non mi sono pentito per niente.
T' invidio:D
Non è che io sia particolarmente ferrato in materia di CPU e chipset future...
Però..pur non essendo a conoscenza delle tua situazione in quei discorsi, innegabilmente...si tende sempre a privilegiare la piattaforma AMD per la sua indiscussa longevità.
Per esempio...tutti gli attuali utenti AMD...rimarranno con tale marchio, semplicemente perchè la mobo AM3+ sarà retrocompatibile al 100% con le CPU odierne.
Mentre chi sceglie Intel se lo prende in quel posto...sempre...ogni volta che c'è una novità come SB...bisogna cambiare mobo.
Se di punto in bianco...mi lasciasse per strada la CPU o la mobo...in questo istante, non avrei il minimo dubbio...mi prenderei una mobo AMD da 30 euro con una CPU più che discreta e memorie aggressive. Appena esce la mobo AM3+ non faccio altro che buttare quella da 30 euro (quando lo riterrò fattibile)...e tiro avanti per anni, sostituendo eventualmente solo la CPU. Un ragionamento come questo con Intel non è possibile...già sappiamo che Ivy avrà un altro socket:muro:
Se invece riesco ancora ad andare avanti con quello che ho attualmente...
farò le opportune valutazioni al momento opportuno: Q6600 usato? oppure cambierò tutto...SB? BD o Fusion?
dipenderà dal prezzo e dagli scopi....ma se tra le mie priorità vi è pure la longevità...la scelta rimane sempre e solo una.
Veramente la politica del cambiare socket ogni cpu è stata spesso adottata da AMD, anche se è vero che ultimamente l'intel sta esagerando :)
Non ho detto "sicuramente" , sarebbe buona educazione evitare di mettere parole in bocca agli altri. Ho detto che è una possibilità... dato che ti volevi spacciare per "obiettivo" quando ti facevi tutti i tuoi bei calcoli ti ho fatto notare che con le due uniche schede single gpu di ATi con connettori 6 + 8 questi erano più "accessori" che fondamentali ;)
Sarebbe buona educazione evitare il termine "spacciare" perchè io non mi spaccio per nessuno ok?Come già ti ho scritto prima non ne ero a conoscenza ma non ritengo di dire una fesseria se scrivo che una scheda che ha un connettore da 6 pin + 8 pin potrebbe consumare più di 225 watt(6+6).
Lo avrei detto anche se la scheda fosse Nvidia.
La transazione mi è costata in tutto 40 euro (compro usato e vendo usato) il che mi sembra regionevole, e sinceramente non mi sono pentito per niente. Come ho detto su un altro post la scelta di una o dell'altra dipende dalle necessità dell'utente quindi non c'e una vga migliore o peggiore in valore assoluto (tranne casi eclatanti come ge-force 5xxx). A me dei consumi non me ne frega niente (li pago sti 2 euro in più al mese) le configurazioni multigpu le schifo (sia nvidia che ati) e lo dico da ex possessore di sli e crossfire. Infine per quanto riguarda le temperature levando furmark ingame sto sempre sui 75°, giusto con crysis arrivo ad 82-83. Le recensioni si basano sul profilo della ventola che c'e da BIOS che fà sempre schifo su quasi tutte le VGA, basta rifare quello e le temperature scendono di molto rispetto a quanto vedete sui bench, ed anche il rumore. Per farti capire a 70% la ventola non si sente mentre giochi e col profilo di default della ventola raggiungi quella rotazione a 90°, il trucco non è abbassare la temperatura quando si arriva a 90° ma evitare proprio di arrivarci quindi basta fare in modo che quando si gioca la ventola si piazza a 70% ed il gioco è fatto, non mi sembra complesso no?
Quindi ora ti faccio questa domanda... sulla base delle MIE necessità qual'e la vga migliore?
allora...
innanzitutto c'è da considerare il fatto...che con l'uscita di r6xxx, FORSE...il listino Nvidia calerà a picco...considerando anche le correzioni su r5xxx. Ho dei dubbi in proposito...perchè nvidia è difficile che abbassi le proprie schede...vedremo. Se accadrà...dovrai sborsare molto di più per un eventuale passaggio rispetto a quanto hai speso da 5870 a 480.
Io al tuo posto...vedrei solo due possibilità:
1) la cambi con 6870 a ottobre/novembre...sborsando la differenza.
2) la tieni fino alla morte...perchè da fine anno in poi...non varrà una benemerita mazza...vuoi perchè è fuori produzione già da giugno...vuoi per la svalutazione a causa della concorrenza. E a prescindere da ogni considerazione...il suo lavoro lo farà ancora per un bel po' di tempo.
Bene o male sono anch'io nella medesima situazione...e scelgo la seconda. (magari un CF con due spiccioli...ci può saltare fuori)
Veramente la politica del cambiare socket ogni cpu è stata spesso adottata da AMD, anche se è vero che ultimamente l'intel sta esagerando :)
Controlla...AMD ha cambiato socket in questi ultimi 10 anni...solo per conformarsi alla memoria di sistema.
Il fatto che BD non è retrocompatibile...mi stupisce e mi rende molto positivo sulle sue potenzialità. Sarebbe anche l'ora.
Non riesco a farmi capire , non sto mettendo in relazione i consumi con le prestazioni , mi sembrava di essere stato chiaro.Ma scusami , se ti propongono una scheda 5 volte più veloce di una 5870 e che consuma 5 volte tanto(ovvero circa 1000 watt) per te va bene?
Hai detto che la nuova ATI consumerà troppo e per me è una frase senza senso.
Se una VGA a costo di consumi leggermente superiori mi elargisce prestazioni nettamente superiori, a me và bene. Per questo dico che non si può dire che una scheda consuma tanto senza conoscerne le prestazioni e sapendo solo che ha un connettore da 6 ed uno da 8, spero di essere stato chiaro.
Ma santo cielo quando parlo di ultimi 10 anni ma mi vuoi dire che una scheda di 10 anni fa' consuma quanto una di oggi.
Non ti ho contestato quello che dici ora, ma la frase in cui dici che in dieci anni i consumi sono sempre aumentati, cosa non vera, visto che proprio la serie HD5xx0 ha fatto registrare una diminuzione dei consumi (in ogni fascia).
No il problema è che tu stesso su 10 punti hai criticato solo quelli contro Ati e non quelli a favore...come mai? Ti ho fatto notare qualche inesattezza, se poi (stranamente), sei stato inesatto in alcuni punti utilizzati per criticare le VGA ATI, non è un problema mio...
allora...
innanzitutto c'è da considerare il fatto...che con l'uscita di r6xxx, FORSE...il listino Nvidia calerà a picco...considerando anche le correzioni su r5xxx. Ho dei dubbi in proposito...perchè nvidia è difficile che abbassi le proprie schede...vedremo. Se accadrà...dovrai sborsare molto di più per un eventuale passaggio rispetto a quanto hai speso da 5870 a 480.
Io al tuo posto...vedrei solo due possibilità:
1) la cambi con 6870 a ottobre/novembre...sborsando la differenza.
2) la tieni fino alla morte...perchè da fine anno in poi...non varrà una benemerita mazza...vuoi perchè è fuori produzione già da giugno...vuoi per la svalutazione a causa della concorrenza. E a prescindere da ogni considerazione...il suo lavoro lo farà ancora per un bel po' di tempo.
Bene o male sono anch'io nella medesima situazione...e scelgo la seconda. (magari un CF con due spiccioli...ci può saltare fuori)
Il tuo discorso è corretto, ma non stai valutando che io il passaggio l'ho fatto vendendo una 5870 usata. All'uscita della 6xxx sarebbe svalutata la 480 tanto quanto la 5870, quindi in ottica futura è assolutamente indifferente. Inoltre non credo che prenderò la 6xxx in quanto penso che a livello di performance starà grossomodo sui livelli della 480 o poco più (non tali da giustificare un passaggio da una all'altra) e come precedentemente illustrato sulle temperature ci si mette tranquillamente una pezza e dei consumi non me ne frega niente. Inoltre a parità di performance delle schede preferisco Nvidia, prendo ati solo se c'e un effettivo valore aggiunto, come ad esempio quando era appena uscita fermi che costava effettivamente troppo e questo andava a mettere la 5870 in una posizione di vantaggio evidente. Il motivo sono i driver e le ottimizzazioni con i vari giochi che alle volte danno qualche piccola rogna... niente di drammatico ma a parità di tutto mi fà da ago della bilancia :)
Controlla...AMD ha cambiato socket in questi ultimi 10 anni...solo per conformarsi alla memoria di sistema.
Il fatto che BD non è retrocompatibile...mi stupisce e mi rende molto positivo sulle sue potenzialità. Sarebbe anche l'ora.
Si si, ma diciamo che socket come l'AM2+ se li poteva tranquillamente evitare :)
thedoctor1968
16-09-2010, 19:22
ottimizzazioni harware pre-esistente ed ottimizzazione software questa è la strada, in un periodo di crisi come questo, con la terribile concorrenza delle console, continuare a proporre nuovi modelli di schede video senza una reale svolta prestazionale è semplicemente ridicolo... voglio proprio vedere i test di questa scheda....
E piu' probabile che le 5850/70 vengano tolte dai canali distributivi per evitare appunto il crollo dei prezzi. D'altronde il prezzo di queste schede a malapena dopo quasi 1 anno si e' avvicinato al MSRP. :rolleyes:
Non ha senso svenderle, neanche' quando arrivera' il refresh.
La consolazione e' che magari il refresh della 5770 sara' un piccolo mostro e dal prezzo contenuto.
Allora che vadano in nvidia mode , facciano un rebranding della 5850 chiamandola , chessò 6750 e piazzandola a 150 neuri o meno e me la compro !
Còa.òàa.òa.òa
Hai detto che la nuova ATI consumerà troppo e per me è una frase senza senso.
Se una VGA a costo di consumi leggermente superiori mi elargisce prestazioni nettamente superiori, a me và bene. Per questo dico che non si può dire che una scheda consuma tanto senza conoscerne le prestazioni e sapendo solo che ha un connettore da 6 ed uno da 8, spero di essere stato chiaro.
Cerco di farti capire quello che voglio dire.Il consumo di Nvidia 230-270 watt in full load per me è già un livello di guardia(per non parlare delle voci sulla possibile versione della gtx 485 che consumerebbe in full load più di 300 watt di media).Mi auguro che Ati non si avvicini ai consumi della 480 perchè ormai con il processo produttivo è rimasto lo step dei 28 nm dopodichè cosa si fà si innesca la guerra del vincitore a suon di watt?Il succo fondemantale espresso anche da un altro utente è il consumo in generale che sia Ati od Nvidia non me ne importa niente, ma al di là delle prestazioni , è ovvio che anche a me va bene consumare 20-30-40 watt in più per avere maggiori prestazioni ma come consumatore mi darebbe comunque fastidio fra qualche anno dover consumare 400 watt per una scheda video Ati od Nvidia che sia.
Non ti ho contestato quello che dici ora, ma la frase in cui dici che in dieci anni i consumi sono sempre aumentati, cosa non vera, visto che proprio la serie HD5xx0 ha fatto registrare una diminuzione dei consumi (in ogni fascia).
Quando si parla di 10 anni , ovvero di un arco temporale così ampio , si parla di tendenza non del caso singolo.
Ti ho fatto notare qualche inesattezza, se poi (stranamente), sei stato inesatto in alcuni punti utilizzati per criticare le VGA ATI, non è un problema mio...
Il problema è che quando si critica una scheda Ati , anzi peggio , si esprime un concetto che critica le schede video in generale(includendo quindi anche Ati) , diventa una inesattezza.
Ciao. ;)
Guarda, io mi riferivo alle frasi da te dette, ovviamente adesso stai facendo dei discorsi diversi, in parte condivisibili, cioè stai dicendo che i consumi stanno tendenzialmente aumentando, ed è vero, stai dicendo inoltre che tu vorresti delle VGA che non aumentassero i consumi.
Ma il problema è che la diminuzione del PP (che tra l'altro mi domando fino a quando potrà diminuire) da solo non è sufficiente a contenere i consumi e che la lotta avviene, in particolare nel settore enthusiast che tu citavi, in gran parte nelle prestazioni.
Del resto, ognuno può scegliere se e quanto privilegiare i consumi rispetto alle prestazioni, basta comperare VGA di fascia inferiore e si avrà un aumento prestazionale rispetto alle vecchie VGA senza pesare sui consumi.
Ovvio che è impossibile volere giochi sempre più esosi in fatto di risorse, volerli giocare senza il minimo scatto, aumentare continuamente le risoluzioni dei monitor, volere vedere ogni effetto, e nello stesso tempo pretendere che i consumi diminuiscano: alla fine le aziende ci danno quello che vogliamo (o forse ci fanno volere quello che fa a loro comodo per continuare a vendere).
ghiltanas
16-09-2010, 20:08
In teoria è come dici tu,perchè anche lo slot pci-express fornisce mi pare fino a 75w di corrente..se ci mettiamo un 6+8 pin si potrebbe arrivare ipoteticamente a 300w.
Ma questo è solo sulla carta,dubito che una 480GTX possa raggiungere 280w di consumo in OC..sarebbe una follia:fagiano: ,ma non dico di più perchè non ce l'ho.
75+75+150 = 300w ;)
e la 480 li può raggiungere tranquillamente i 280w in oc:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/30.html
Guarda, io mi riferivo alle frasi da te dette, ovviamente adesso stai facendo dei discorsi diversi, in parte condivisibili, cioè stai dicendo che i consumi stanno tendenzialmente aumentando, ed è vero, stai dicendo inoltre che tu vorresti delle VGA che non aumentassero i consumi.
Ma il problema è che la diminuzione del PP (che tra l'altro mi domando fino a quando potrà diminuire) da solo non è sufficiente a contenere i consumi e che la lotta avviene, in particolare nel settore enthusiast che tu citavi, in gran parte nelle prestazioni.
Del resto, ognuno può scegliere se e quanto privilegiare i consumi rispetto alle prestazioni, basta comperare VGA di fascia inferiore e si avrà un aumento prestazionale rispetto alle vecchie VGA senza pesare sui consumi.
Ovvio che è impossibile volere giochi sempre più esosi in fatto di risorse, volerli giocare senza il minimo scatto, aumentare continuamente le risoluzioni dei monitor, volere vedere ogni effetto, e nello stesso tempo pretendere che i consumi diminuiscano: alla fine le aziende ci danno quello che vogliamo (o forse ci fanno volere quello che fa a loro comodo per continuare a vendere).
In realtà è quello che ho scritto dall'inizio:
5)Come mai la futura top di gamma Ati ha un connettore da 8 pin ed uno da 6 pin per l'alimentazione e nessuno si lamenta dei consumi come per la GTX 480?La scheda madre fornisce allo slot pci-ex 75 watt , ogni connettore da 6 pin altri 75 watt , quindi totale 75+75+75 se la matematica non è un'opinione fa 225 watt?Ora un connettore da 8 pin può fornire 150 watt ovvero altri 75 watt , quindi 225 + 75 = 300.Anche se la scheda non cosumi 300 watt parte da un consumo di 225 watt a salire(a meno che Ati abbia messo un connettore da 8 pin per divertimento),mi spiegate cortesemente grazie a quale magia riesce a comsumare meno di una GTX 480 che a parte per chi gioca a Furmark consuma nei giochi dai 230 ai 270 watt?
8)Mi auguro che Ati sviluppi una scheda architetturalmente evoluta e che consumi e scaldi poco così come mi auguro che Nvidia faccia altrettanto ma la nota dolente è il consumo della futura top di Ati.
Ma nessuno ha pensato che negli ultimi 10 anni , nonostante il processo produttivo sia sempre sceso , i consumi delle schede sono sempre e solo saliti?
Non ho certo scritto che Ati consuma troppo , che le schede video consumano troppo(infatti ho fatto il paragone con la GTX 480 che di certo non consuma poco) e potrebbero consumare sempre di più , ovvero il timore che consumino di più, ma non poco parecchio di più.
Ciao.;)
ghiltanas
16-09-2010, 20:14
In realtà è quello che ho scritto dall'inizio:
5)Come mai la futura top di gamma Ati ha un connettore da 8 pin ed uno da 6 pin per l'alimentazione e nessuno si lamenta dei consumi come per la GTX 480?La scheda madre fornisce allo slot pci-ex 75 watt , ogni connettore da 6 pin altri 75 watt , quindi totale 75+75+75 se la matematica non è un'opinione fa 225 watt?Ora un connettore da 8 pin può fornire 150 watt ovvero altri 75 watt , quindi 225 + 75 = 300.Anche se la scheda non cosumi 300 watt parte da un consumo di 225 watt a salire(a meno che Ati abbia messo un connettore da 8 pin per divertimento),mi spiegate cortesemente grazie a quale magia riesce a comsumare meno di una GTX 480 che a parte per chi gioca a Furmark consuma nei giochi dai 230 ai 270 watt?
8)Mi auguro che Ati sviluppi una scheda architetturalmente evoluta e che consumi e scaldi poco così come mi auguro che Nvidia faccia altrettanto ma la nota dolente è il consumo della futura top di Ati.
Ma nessuno ha pensato che negli ultimi 10 anni , nonostante il processo produttivo sia sempre sceso , i consumi delle schede sono sempre e solo saliti?
Non ho certo scritto che Ati consuma troppo , che le schede video consumano troppo(infatti ho fatto il paragone con la GTX 480 che di certo non consuma poco) e potrebbero consumare sempre di più , ovvero il timore che consumino di più, ma non poco parecchio di più.
Ciao.;)
il punto cmq nn è solo il consumo in se, ma la proporzione performance/watt...dire che il consumo con la 6870 salirà, in se nn dice nulla, se le prestazioni saranno superiori alla 480, diciamo vicine alla 5970, però i consumi saranno aumentati, pur restando abbastanza inferiori alla top nvidia , sarà ugualmente un successo, specie perchè il pp è lo stesso :)
il punto cmq nn è solo il consumo in se, ma la proporzione performance/watt...dire che il consumo con la 6870 salirà, in se nn dice nulla, se le prestazioni saranno superiori alla 480, diciamo vicine alla 5970, però i consumi saranno aumentati, pur restando abbastanza inferiori alla top nvidia , sarà ugualmente un successo, specie perchè il pp è lo stesso :)
Infatti il punto è proprio quello..quanto salirà in rapporto alle prestazioni.
Ciao.;)
Comunque stavo vedendo le recensioni e la differenza di consumi tra 480 e la 5870 è di circa 100 watt.
Veramente strano che abbiano messo un connettore da 8 pin anche se fosse per l'overclock.
Staremo a vedere.
ma ci sono classifiche per i litigi oppure è a elimiazione diretta/fisica?
ma ci sono classifiche per i litigi oppure è a elimiazione diretta/fisica?
Siamo in modalità death match:asd:
Futura12
16-09-2010, 20:45
75+75+150 = 300w ;)
e la 480 li può raggiungere tranquillamente i 280w in oc:
http://www.easportsfootball.co.uk/media/play/video/36330065
Non ho parole:eh:
ghiltanas
16-09-2010, 20:47
Non ho parole:eh:
nemmeno io :doh: ...è la vecchiaia, devi capirmi :stordita:
ho corretto il link ;)
inVisumer
16-09-2010, 20:56
E' proprio vero quello che ho letto su un articolo tempo fa: l'uomo fa di tutto pur di avere ragione... persino mentire a se' stesso (autoconvincimento).
Qui regna l'anarchia tra chi sostiene l'una e l'altra parte. Ogni volta che letto questi commenti sulle notizie mi viene sempre da ridere perche' ogni due post c'e' sempre qualcuno che sostiene di fornire dati oggettivi che poco hanno a che vedere non l'oggettivita' degli altri. E' quasi impossibile stabilire - almeno leggendo qui - chi abbia ragione... e credetemi e' frustrante! tanto che a volte desidererei che ci fosse un moderatore esperto in materia che tenga a bada le accuse indiscriminate e le previsioni catastrofiche di certi utenti!
Ragazzi dovete imparare a controllare i vostri istinti bellicosi, altrimenti un poveraccio come me - che vorrebbe far luce su alcune "questioni" essendo inesperto - non riuscira' mai a cavarci un ragno dal buco. E sono stufo di leggere ogni volta 15 pagine di commenti e NON CAPIRCI PIU' UNA CIPPA.
Consiglio a coloro che scrivono i commenti di rileggerli daccapo... cosi' almeno si mettono a ridere insieme a me di quante contraddizioni ci possono essere nelle informazioni (parlo soprattutto di numeri).
VI PREGO DI NON OFFENDERVI o chiedermi di evidenziare qualche esempio di quello che ho scritto... lo sapete pure voi nel fondo della vostra coscenza che quasi tutto ormai gioca sull'orgoglio del Fanboy
Ma nessuno legge la notizia??:( Ancora non si vedono le centinaia di 5870 nel mercatino:asd:
hermanss
16-09-2010, 21:58
Su su prezzi delle 58xx calate!:D
Comunque stavo vedendo le recensioni e la differenza di consumi tra 480 e la 5870 è di circa 100 watt.
Veramente strano che abbiano messo un connettore da 8 pin anche se fosse per l'overclock.
Staremo a vedere.
Io la trovo un'idea conservativa alla AMD.
AMD ha sempre cercato di complicare il meno possibile la vita ai partner facendo pcb semplici e porgetti che garantiscano il miglior risultato.
Probabilmente i connettori sono "standard" per la fascia di mercato, quindi ad ogni generazione non ti tocca riprogettare tutto. Perchè riprogettare, riverificare e testare l'hw ha costi sia temporali che di materiali.
Quindi io progettista faccio un alimentatore che arriva fino a 380W e poi ci metto su quello quando mi serve. Un po' come sugli alimentatori dei case, prendi quello da 650W e non te lo fai su misura perchè il tuo computer consuma 585W.
Poi ragazzi dimenticate che NVIDIA sta investendo molto nel supporto di titoli ciò che non fa AMD.
Potrebbe andare a finire come tra INTEL e AMD dove se usi Intel hai le super mega ottimizzazione mentre se usi AMD no.
Capisco che può sembrare una follia ma se non hai un hw decente pui sempre barare stroncando le prestazioni dell'avversario.
TANTO basta che tarocchino su CRYSIS 2 e vedi quanto meglio è hw Nvidia.
TheThane
16-09-2010, 22:43
Babbo natale portami la 6870 L.L
Ayrton89
16-09-2010, 23:01
accidenti ati sta proprio mettendo la marcia in più, questa potrebbe finalmente, anzi "dovrebbe" essere la nuova regina incontrastata dello stuttering videoludico ? :)
WOW
psychok9
16-09-2010, 23:07
Come immaginavo, neanche il tempo di lanciare Fermi, ATi ha già pronte le 6xxx...
nVidia a quanto punto sposterà ancora di più il suo market share verso le schede pro... e non è del tutto un male.
Un eccessivo share nel mercato gaming, con politiche anti-concorrenziali come quelle di semi-esclusive di alcune features, di blocchi come in Batman, imho, non sono vantaggiose per noi consumatori e anzi sono piuttosto odiose.
Ridimensionandosi un po', avremo solo da guadagnarci :O
Quindi AMD avanti tutta, e speriamo si diano una mossa con i driver Linux (anche se a onor del vero, con i driver open stanno lavorando... vediamo se riescono a fornirli ad una velocità decente dal lancio delle prossime gpu).
adkjasdurbn
16-09-2010, 23:43
Siamo in modalità death match:asd:
...marine! in azione! :D
ragazzi nessuna foto o dettaglio su un ipotetica 6670 senza connettori aggiuntivi? :D (belle, piccine e performanti) :asd:
Mercuri0
16-09-2010, 23:43
5)Come mai la futura top di gamma Ati ha un connettore da 8 pin ed uno da 6 pin per l'alimentazione e nessuno si lamenta dei consumi come per la GTX 480?
Perché della "6870" non conosciamo le prestazioni!
Se AMD o nVidia fanno una scheda con un chip più grande e che consuma di più del concorrente, questa deve avere prestazioni superiori in proporzione.
Altrimenti l'altro ci mette poco a pareggiare aumentando a sua volta area e consumi.
Cosa che in questo caso AMD farà: sfrutterà "il margine" di consumi che la serie 58xx gli ha lasciato. nVidia si sospetta non abbia questo margine, per questo a lei tocca aspettare i 28nm o rivoluzionare l'architettura.
appleroof
16-09-2010, 23:45
75+75+150 = 300w ;)
e la 480 li può raggiungere tranquillamente i 280w in oc:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/30.html
Chissà se li raggiungerà la 6870, certo la presenza dell'8 pin non lascia ben sperare, non c'è fede incrollabile che tenga...
Kharonte85
17-09-2010, 00:28
E' proprio vero quello che ho letto su un articolo tempo fa: l'uomo fa di tutto pur di avere ragione... persino mentire a se' stesso (autoconvincimento).
Qui regna l'anarchia tra chi sostiene l'una e l'altra parte. Ogni volta che letto questi commenti sulle notizie mi viene sempre da ridere perche' ogni due post c'e' sempre qualcuno che sostiene di fornire dati oggettivi che poco hanno a che vedere non l'oggettivita' degli altri. E' quasi impossibile stabilire - almeno leggendo qui - chi abbia ragione... e credetemi e' frustrante! tanto che a volte desidererei che ci fosse un moderatore esperto in materia che tenga a bada le accuse indiscriminate e le previsioni catastrofiche di certi utenti!
Ragazzi dovete imparare a controllare i vostri istinti bellicosi, altrimenti un poveraccio come me - che vorrebbe far luce su alcune "questioni" essendo inesperto - non riuscira' mai a cavarci un ragno dal buco. E sono stufo di leggere ogni volta 15 pagine di commenti e NON CAPIRCI PIU' UNA CIPPA.
Consiglio a coloro che scrivono i commenti di rileggerli daccapo... cosi' almeno si mettono a ridere insieme a me di quante contraddizioni ci possono essere nelle informazioni (parlo soprattutto di numeri).
VI PREGO DI NON OFFENDERVI o chiedermi di evidenziare qualche esempio di quello che ho scritto... lo sapete pure voi nel fondo della vostra coscenza che quasi tutto ormai gioca sull'orgoglio del Fanboy
Come hai detto tu si dovrebbe notare chi è animato da smania di dimostrare a se stesso che sta dalla parte del "giusto": basta non prenderlo in considerazione. Nel rumore di fondo c'è anche chi sa esprimere una personale preferenza pur restando obiettivo e legato il più possibile ai fatti (che solitamente in realtà sono "sommatorie di opinioni autorevoli" ovvero test fatti da altri o più raramente report di esperienze personali) quelli più credibili sono quelli che oggettivano quello che stanno dicendo con le fonti più autorevoli.
Invece su un argomento come il futuro (Hd6xx0) ovviamente è parte del divertimento lambiccarsi il cervello e divertirsi a prevedere come saranno le nuove schede grafiche :D
La metafisica di HWUP: qualunque cosa dirai è vera e/o falsa fino al giorno delle review "fisiche" :sofico:
E' proprio vero quello che ho letto su un articolo tempo fa: l'uomo fa di tutto pur di avere ragione... persino mentire a se' stesso (autoconvincimento).
Qui regna l'anarchia tra chi sostiene l'una e l'altra parte. Ogni volta che letto questi commenti sulle notizie mi viene sempre da ridere perche' ogni due post c'e' sempre qualcuno che sostiene di fornire dati oggettivi che poco hanno a che vedere non l'oggettivita' degli altri. E' quasi impossibile stabilire - almeno leggendo qui - chi abbia ragione... e credetemi e' frustrante! tanto che a volte desidererei che ci fosse un moderatore esperto in materia che tenga a bada le accuse indiscriminate e le previsioni catastrofiche di certi utenti!
Ragazzi dovete imparare a controllare i vostri istinti bellicosi, altrimenti un poveraccio come me - che vorrebbe far luce su alcune "questioni" essendo inesperto - non riuscira' mai a cavarci un ragno dal buco. E sono stufo di leggere ogni volta 15 pagine di commenti e NON CAPIRCI PIU' UNA CIPPA.
Consiglio a coloro che scrivono i commenti di rileggerli daccapo... cosi' almeno si mettono a ridere insieme a me di quante contraddizioni ci possono essere nelle informazioni (parlo soprattutto di numeri).
VI PREGO DI NON OFFENDERVI o chiedermi di evidenziare qualche esempio di quello che ho scritto... lo sapete pure voi nel fondo della vostra coscenza che quasi tutto ormai gioca sull'orgoglio del Fanboy
Guarda che anche se la futura top di gamma di Ati dovesse consumare quanto la gtx 480 e la successiva scheda Nvidia 200 watt di più di sicuro
non mi taglio le vene:asd: ...ci sono cose molto più importanti che il consumo
di una scheda video...si esprimono solo opinioni nella convizione che siano più o meno oggettive...come in tutti i forum del resto..ciaoo:)
psychok9
17-09-2010, 01:33
Guarda che anche se la futura top di gamma di Ati dovesse consumare quanto la gtx 480 e la successiva scheda Nvidia 200 watt di più di sicuro
non mi taglio le vene:asd: ...ci sono cose molto più importanti che il consumo
di una scheda video...si esprimono solo opinioni nella convizione che siano più o meno oggettive...come in tutti i forum del resto..ciaoo:)
Quindi, per dirla in una battuta, per te è normale che io debba dire a mia madre spegni la lavatrice che devo giocare? :eek: :D :muro: :rolleyes:
Per fortuna la maggioranza delle persone è attenta al rapporto watt/performance.
psychok9
17-09-2010, 01:36
Poi ragazzi dimenticate che NVIDIA sta investendo molto nel supporto di titoli ciò che non fa AMD.
Potrebbe andare a finire come tra INTEL e AMD dove se usi Intel hai le super mega ottimizzazione mentre se usi AMD no.
Capisco che può sembrare una follia ma se non hai un hw decente pui sempre barare stroncando le prestazioni dell'avversario.
TANTO basta che tarocchino su CRYSIS 2 e vedi quanto meglio è hw Nvidia.
Investisse e basta non sarebbe malissimo... ma se fa come con Batman io non prenderei nVidia per principio... Poi ognuno è libero di darsi le zappate sui piedi che vuole, ma io preferirei 2-3 concorrenti che giocano con le stesse "regole", non aziende che barano per poi monopolizzare il mercato e/o penalizzare ingiustamente gli utenti che non scelgono il loro marchio.
psychok9
17-09-2010, 01:46
Se me lo permetti, l'utente che hai quotato e criticato ha fatto osservazioni molto corrette e pertinenti; per i dati che ha indicato basta cercare un po' di fonti facilmente reperibili, anche sulle news di Hardware Upgrade.
La tua risposta, francamente, è proprio campata per aria e non basata su nulla di oggettivo.
Invece mi sembra che il discorso sullo share, nei toni giusti, sia corretto.
Lo share di schede vendute da nVidia negli anni passati, non le porteranno nessun guadagno... quindi se non riesce a vendere le Fermi, si troverà comunque in relativa difficoltà. Avendo però le finanze in buono stato (penso, visto che non ne ho idea), potrà sopportare l'eventuale crisi di vendite nel mercato gaming, e avrà chance di rifarsi...
Perché della "6870" non conosciamo le prestazioni!
Se AMD o nVidia fanno una scheda con un chip più grande e che consuma di più del concorrente, questa deve avere prestazioni superiori in proporzione.
Altrimenti l'altro ci mette poco a pareggiare aumentando a sua volta area e consumi.
Cosa che in questo caso AMD farà: sfrutterà "il margine" di consumi che la serie 58xx gli ha lasciato. nVidia si sospetta non abbia questo margine, per questo a lei tocca aspettare i 28nm o rivoluzionare l'architettura.
Non si conoscevano le prestazioni neanche della GTX 480 ed il processo sommario sui consumi è stato fatto ugualmente.
Poi il mio è un discorso più generale sui consumi che , al di là di quali siano le prestazioni , devono rimanere entro un tetto "decente".
Io stesso che ho la 480 ammetto che consuma troppo e 300 watt per me dovrebbe essere il limite di consumo per una gpu singola anche in futuro indipendentemente dalle prestazioni.
La competizione mi auguro ci sia a livello architetturale non a colpi di watt.:)
Quindi, per dirla in una battuta, per te è normale che io debba dire a mia madre spegni la lavatrice che devo giocare? :eek: :D :muro: :rolleyes:
Per fortuna la maggioranza delle persone è attenta al rapporto watt/performance.
Ma se è da pagina 5 che sto scrivendo l'esatto contrario!!
Leggi i miei post precedenti,ciao;)
psychok9
17-09-2010, 01:58
Ma se è da pagina 5 che sto scrivendo l'esatto contrario!!
Leggi i miei post precedenti,ciao;)
Non avevo interpretato il senso generico :)
Sorry :D
Io quasi mi lamento dei consumi della 5850...
Per non parlare delle rogne con la 8800 GT che scaldava come un forno... :D
Non avevo interpretato il senso generico :)
Sorry :D
Io quasi mi lamento dei consumi della 5850...
Per non parlare delle rogne con la 8800 GT che scaldava come un forno... :D
Non c'è problema , rispondevo ad un altro utente che forse definiva catastrofica la mia previsione di aumento dei consumi della nuova top di gamma Ati.
Visto che è già avvenuto per Nvidia mi auguro non succeda anche ad Ati(anche perchè ha un margine netto rispetto alla controparte), poi capisco che a qualcuno il consumo non possa interessare affatto , per me ripeto 300 watt è un tetto per gpu singola che non dovrebbe mai essere superato ma se dovesse succedere non posso certo suicidarmi,ciao;)
Fatal Frame
17-09-2010, 02:29
Chissà quanto costerà :D
Paolo Corsini
17-09-2010, 06:16
Invece mi sembra che il discorso sullo share, nei toni giusti, sia corretto.
Lo share di schede vendute da nVidia negli anni passati, non le porteranno nessun guadagno... quindi se non riesce a vendere le Fermi, si troverà comunque in relativa difficoltà. Avendo però le finanze in buono stato (penso, visto che non ne ho idea), potrà sopportare l'eventuale crisi di vendite nel mercato gaming, e avrà chance di rifarsi...
E' molto curioso per me leggere queste affermazioni nello stesso post:
"Lo share di schede vendute da nVidia negli anni passati, non le porteranno nessun guadagno"
e
" Avendo però le finanze in buono stato (penso, visto che non ne ho idea)"
Fai una prima affermazione che implica una conoscenza dell'andamento economico di NVIDIA, salvo poco dopo affermare di non saperne nulla.
Se scrivo
"è evidente che la Haribo sia un'azienda in declino"
e poco dopo
"io del mercato delle caramelle gommose non conosco assolutamente nulla"
sono credibile o quantomeno un po' confuso?
E' molto curioso per me leggere queste affermazioni nello stesso post:
"Lo share di schede vendute da nVidia negli anni passati, non le porteranno nessun guadagno"
e
" Avendo però le finanze in buono stato (penso, visto che non ne ho idea)"
Fai una prima affermazione che implica una conoscenza dell'andamento economico di NVIDIA, salvo poco dopo affermare di non saperne nulla.
Se scrivo
"è evidente che la Haribo sia un'azienda in declino"
e poco dopo
"io del mercato delle caramelle gommose non conosco assolutamente nulla"
sono credibile o quantomeno un po' confuso?
Scusa , ma credo che il senso sia " le mille mila schede che nvidia ha venduto fino all'uscita di fermi ,ORA non le stanno portando nessun guadagno. guadagno che in questo periodo deriva solo dalle vendite attuali ".
Mi sembra oggettiva come considerazione. come fa una vendita di anni fa portare ancora un guadagno all'azienda ? Evidentemente cio' che ha guadagnato in passato permette all'azienda di essere ancora in buona salute , cio' non toglie pero' che evidentemente i guadagni odierni possano essere sotto le aspettative...
C;,s;,s;,s;,s
Paolo Corsini
17-09-2010, 07:25
Scusa , ma credo che il senso sia " le mille mila schede che nvidia ha venduto fino all'uscita di fermi ,ORA non le stanno portando nessun guadagno. guadagno che in questo periodo deriva solo dalle vendite attuali ".
Mi sembra oggettiva come considerazione. come fa una vendita di anni fa portare ancora un guadagno all'azienda ?
Su quali basi una persona può affermare che NVIDIA non abbia marginato sulle vendite delle soluzioni Fermi?
Sono sensazioni? Allora non c'è nulla di oggettivo, e che si scriva "secondo me". Se si fanno affermazioni assolute che siano documentate e/o documentabili.
Su quali basi una persona può affermare che NVIDIA non abbia marginato sulle vendite delle soluzioni Fermi?
Sono sensazioni? Allora non c'è nulla di oggettivo, e che si scriva "secondo me". Se si fanno affermazioni assolute che siano documentate e/o documentabili.
...ad aprile giravano ancora news sulle scarse rese produttive e anche agli inizi della commercializzazione i partner si lamentavano dei bassi margini di guadagno rispetto agli standard...questi possono essere legati alla volontà della compagnia di innalzare il prezzo di vendita per colmare i problemi al pp...
http://www.hwupgrade.it/news/skvideo/nvidia-problemi-di-resa-con-i-chip-fermi-di-fascia-alta_32181.html
http://www.hwupgrade.it/news/skvideo/nvidia-fermi-riflessioni-prezzi-e-disponibilita_31960.html
...forse solo voci...ma notizie del genere non mi sembra si siano sentite su altri modelli sia di nvidia che della concorrenza...
...ciao Andrea...
beh il fatto che i prezzi siano scesi molto repentinamente aggiunto al fatto che i prezzi delle ati non siano scesi , fa pensare che le vendite non siano state cosi' ottime sinceramente...
C;'.a'.z'.'a.za
beh il fatto che i prezzi siano scesi molto repentinamente aggiunto al fatto che i prezzi delle ati non siano scesi , fa pensare che le vendite non siano state cosi' ottime sinceramente...
C;'.a'.z'.'a.za
...come riportato dallo stesso business magazine...
Secondo quanto riportato dalla società stessa il motivo di questo sensibile calo sarebbe da ricercarsi in, citando testuali parole: "primarly in the consumer GPU business" e "increased solution cost of discrete GPUs". Sarebbero quindi insorti problemi con la commercializzazione delle soluzioni GeForce della famiglia Fermi, con vendite al di sotto delle aspettative e costi di produzione sensibilmente più elevati.
http://www.businessmagazine.it/news/nvidia-avverte-gli-azionisti-vendite-sotto-le-aspettative_33393.html
...ciao Andrea...
Paolo Corsini
17-09-2010, 07:43
Ripeto: quanto scrivete dice che NVIDIA non ha raggiunto i risultati sperati, e questo è chiaro.
L'utente al quale ho risposto affermava:
"Lo share di schede vendute da nVidia negli anni passati, non le porteranno nessun guadagno"
Come fate ad affermare che NVIDIA non abbia marginato del tutto?
Non lo sapete, come del resto non lo posso sapere io non avendo quei dati a disposizione, dati che non sono pubblici. Dalle trimestrali si può ricavare qualche informazioni, ma non di certo la marginalità specifica delle varie tipologie di prodotti che NVIDIA offre sul mercato. Da qui a pensare che NVIDIA lavori sottocosto su tutta la gamma mi sembra ben più che azzardato.
Ripeto: quanto scrivete dice che NVIDIA non ha raggiunto i risultati sperati, e questo è chiaro.
L'utente al quale ho risposto affermava:
"Lo share di schede vendute da nVidia negli anni passati, non le porteranno nessun guadagno"
Come fate ad affermare che NVIDIA non abbia marginato del tutto?
Non lo sapete, come del resto non lo posso sapere io non avendo quei dati a disposizione, dati che non sono pubblici. Dalle trimestrali si può ricavare qualche informazioni, ma non di certo la marginalità specifica delle varie tipologie di prodotti che NVIDIA offre sul mercato. Da qui a pensare che NVIDIA lavori sottocosto su tutta la gamma mi sembra ben più che azzardato.
...si ok Paolo ma se la stessa azienda snocciola frasi del genere :
Secondo quanto riportato dalla società stessa il motivo di questo sensibile calo sarebbe da ricercarsi in, citando testuali parole: "primarly in the consumer GPU business" e "increased solution cost of discrete GPUs". Sarebbero quindi insorti problemi con la commercializzazione delle soluzioni GeForce della famiglia Fermi, con vendite al di sotto delle aspettative e costi di produzione sensibilmente più elevati.
...non certo passeggia in un prato fiorito...senza entrare nel dettagli economici si puo' certamente affermare che la nuova nata di nividia non abbia raggiunto i risultati sperati a causa di vendite sotto le aspettative e costi di produzione elevati...
...ciao Andrea...
Ayrton89
17-09-2010, 07:51
...si ok Paolo ma se la stessa azienda snocciola frasi del genere :
...non certo passeggia in un prato fiorito...senza entrare nel dettagli economici si puo' certamente affermare che la nuova nata di nividia non abbia raggiunto i risultati sperati a causa di vendite sotto le aspettative e costi di produzione elevati...
...ciao Andrea...
di certo non ci è andata in perdita generalmene parlando.
è rimasta ancora la leader in tutti i settori di mercato dei prodotti grafici discreti.
Paolo Corsini
17-09-2010, 07:57
...si ok Paolo ma se la stessa azienda snocciola frasi del genere :
...non certo passeggia in un prato fiorito...senza entrare nel dettagli economici si puo' certamente affermare che la nuova nata di nividia non abbia raggiunto i risultati sperati a causa di vendite sotto le aspettative e costi di produzione elevati...
...ciao Andrea...
Ciao,
qui nessuno afferma il contrario, ma da qui a sostenere che non vi siano margini del tutto (fosse anche l'1%) nessuno ha dati per affermarlo. Se è una sensazione personale, che uno scriva IMHO e siamo tutti felici
Ciao,
qui nessuno afferma il contrario, ma da qui a sostenere che non vi siano margini del tutto (fosse anche l'1%) nessuno ha dati per affermarlo. Se è una sensazione personale, che uno scriva IMHO e siamo tutti felici
...se i margini per i produttori son passati dall'10% all'1% la cosa tanto sana non è...mi baso sulle notizie di hwupgrade.it non su siti esteri...
Stappern
17-09-2010, 08:30
Si ma il discorso è che tra "vendite al di sotto delle aspettative" e "nessun margine" c'è ne di strada da fare
longhorn7680
17-09-2010, 09:00
Qua nessuno ha affermato che nVidia non abbia margini sulle vendite di Fermi, questo si vedra quando chiuderanno l'anno fiscale, ci sono i costi per sviluppare e produrre Fermi e ci saranno le vendite..... a quel punto tireranno le somme.
Pero visto il ritardo con HD5XXX e l'ulteriore ritardo nei confronti di HD6XXX e le vendite al di sotto del previsto e facile ipotizzare un bilancio in rosso! Ed e facile ipotizzare lo stesso scenario anche per l'anno prossimo, visto che il gap e notevole e le quote di mercato perse sono importanti! In piu un chip nVidia costa piu di un chip Ati visto che sono piu grossi e per capire questo non bisogna avere una laurea in economia.
Percio quando leggo che a nVidia questa situazione non crea alcun problema perche tanto guadagna nel settore professionale e che addirittura ne esce piu forte mi vien da ridere.
Non considerando il fatto che se non vendono nel settore mainstream e non incassano non avranno fondi per sviluppare nuove architetture tenendo il passo di Ati e pertanto si rischia di perdere anche il primato nel settore pro.
Ma purtroppo dopo le recensioni che si discostano da tutte le altre in giro di un buon 10% in favore di nVidia, adesso non si puo neanche dire che nVidia e in ritardo e in crisi perche ha dormito sugli allori mentre Ati ha fatto un gran lavoro superandola sia come prestazioni con il top di gamma, che come convenienza nelle fasce di prezzo che generano piu volumi.
Pero nessuno ancora ha spiegato come le schede vendute negli anni passati possano aiutare nVidia adesso? Le perdite che avranno per recuperare (o almeno crecare di farlo) mi pare abbastanza ovvio che supereranno quello che hanno guadagnato dall'introduzione di G80, perche essendo in ritardo dovarnno accellerare per forza e questo fa aumentare i costi in maniera esponenziale non dando nessuna garanzia sul risultato!
Sempre sperando che riescano a recuperare per ritornare ad una situazione come quella che si era creata prima dell'uscita delle HD5XXX dove con 150-200Eur ti prendevi quasi il Top, adesso invece ce ne vogliono il doppio!
Stappern
17-09-2010, 09:07
si ma dire nvidia in rosso è una bella affermazione hai idea di quanto poco gli importi della fascia entusiasth? nvidia i soldi li fa in altri modi questa è solo pubblicità
Paolo Corsini
17-09-2010, 09:55
Qua nessuno ha affermato che nVidia non abbia margini sulle vendite di Fermi, questo si vedra quando chiuderanno l'anno fiscale, ci sono i costi per sviluppare e produrre Fermi e ci saranno le vendite..... a quel punto tireranno le somme.
Continua a sfuggire la differenza tra affermare in senso assoluto una cosa, e dire la stessa cosa specificando che si tratta di una propria deduzione - sensazione - ipotesi.
Pero visto il ritardo con HD5XXX e l'ulteriore ritardo nei confronti di HD6XXX e le vendite al di sotto del previsto e facile ipotizzare un bilancio in rosso! Ed e facile ipotizzare lo stesso scenario anche per l'anno prossimo, visto che il gap e notevole e le quote di mercato perse sono importanti! In piu un chip nVidia costa piu di un chip Ati visto che sono piu grossi e per capire questo non bisogna avere una laurea in economia.
Scrivi, giustamente, "è facile ipotizzare": la tua è una ipotesi, tra l'altro pienamente condivisibile a mio avviso, e non un'affermazione in senso assoluto.
Percio quando leggo che a nVidia questa situazione non crea alcun problema perche tanto guadagna nel settore professionale e che addirittura ne esce piu forte mi vien da ridere.
E ridi bene, in quanto hai ragione. Se NVIDIA ha market share e margina tanto con le schede Quadro, buon per NVIDIA; se però parallelamente margina meno e ha difficoltà nella divisione desktop possibile che il saldo complessivo sia sempre positivo, ma è peggio che se avesse anche risultati e margini superiori nel settore desktop. In questo senso i risultati con Quadro bilanciano un risultato con le soluzioni GeForce che può essere migliore.
Non considerando il fatto che se non vendono nel settore mainstream e non incassano non avranno fondi per sviluppare nuove architetture tenendo il passo di Ati e pertanto si rischia di perdere anche il primato nel settore pro.
In parte non corretto. Non è tanto importante dove NVIDIA margini, ma quanto nel complesso. Se faccio 100 milioni di USD di margine con Quadro e GeForce cumulato, ma devo spendere 300 milioni di USD in ricerca e sviluppo ho un problema. Come arrivino quei 100 milioni di USD è per questi versi non importante.
Ricorda piuttosto che se i margini migliori arrivano dalla serie Quadro, è ancor più importante per NVIDIA non perdere in quel settore. Stessa dinamica puoi vederla per Intel con riferimento alle soluzini Xeon, ad esempio.
Ma purtroppo dopo le recensioni che si discostano da tutte le altre in giro di un buon 10% in favore di nVidia, adesso non si puo neanche dire che nVidia e in ritardo e in crisi perche ha dormito sugli allori mentre Ati ha fatto un gran lavoro superandola sia come prestazioni con il top di gamma, che come convenienza nelle fasce di prezzo che generano piu volumi.
In*dichi una differenza del 10% tra queste recensioni e altre; ti invito a prendere i nostri dati e altri confrontabili ottenuti da altri (stessi titoli, stesse condizioni di test, stessi driver) e mostrarmi questa differenza che favorirebbe una azienda.
Mi sono un po' stufato, se me lo permetti, di queste accuse pertanto t'invito, dato che le hai formulate, a oggettivizzarle. Oggettivizzarle, quindi, implica fornire dati che siano confrontabili. Vai online, prenditi i dati, confrontali e trovami questo 10%, grazie.
Pero nessuno ancora ha spiegato come le schede vendute negli anni passati possano aiutare nVidia adesso? Le perdite che avranno per recuperare (o almeno crecare di farlo) mi pare abbastanza ovvio che supereranno quello che hanno guadagnato dall'introduzione di G80, perche essendo in ritardo dovarnno accellerare per forza e questo fa aumentare i costi in maniera esponenziale non dando nessuna garanzia sul risultato!
Fai una affermazione
"Le perdite che avranno per recuperare (o almeno crecare di farlo) mi pare abbastanza ovvio che supereranno quello che hanno guadagnato dall'introduzione di G80"
che ha i canoni della certezza, certezza che tu non hai non avendo quei dati.
Come le schede vendute nel passato aiutano NVIDIA? Semplice, marketing e market share.
Marketing: GeForce è il brand più forte presente nel mercato delle VGA desktop. Questo implica che molti utenti comperano non tanto sulla base delle caratteristiche tecniche, in quanto non le conoscono e/o non le capiscono, ma facendosi spingere dal brand.
Quote di mercato: nel settore professionale Quadro ha poco meno del 90% del totale. In questo segmento le aziende comperano Quadro e Tesla in quanto sono standard de facto, con un supporto da parte dell'ecosistema software che non è confrontabile a quello che AMD mette a disposizione con i prodotti delle serie FirePro e FireStream.
Ovviamente non possiamo sapere con certezza se e quanto abbia guadagnato Nvidia nell'ultimo anno. Possiamo fare delle ipotesi più o meno pessimistiche.
L'unica cosa certa, conoscendo il contesto ed il mercato, è che per quanto riguarda il settore delle vga discrete per sistemi desktop non naviga in ottime acque e che AMD ha, per forza di cose, ottenuto risultati migliori.
Però è altrettanto vero, come ha giustamente detto Corsini, che l'importante non è dove si vanno a fare gli utili, quanto gli stessi nel complesso. Non si va mai a finanziare o remunerare un determinato fattore produttivo attraverso una determinata fonte di finanziamento...se Nvidia Corporation avesse un fabbisogno finanziario di 100 e guadagnasse 0 dal settore desktop, 80 da quello workstation e 20 dal mobile in via teoria sarebbe a posto. Lo sarebbe anche in pratica, ma avere un settore che succhia risorse e rende poco non è certo il massimo, ma parliamo di problemi interni all'azienda che poco ci interessano.
Kharonte85
17-09-2010, 11:47
Ovviamente non possiamo sapere con certezza se e quanto abbia guadagnato Nvidia nell'ultimo anno. Possiamo fare delle ipotesi più o meno pessimistiche.
L'unica cosa certa, conoscendo il contesto ed il mercato, è che per quanto riguarda il settore delle vga discrete per sistemi desktop non naviga in ottime acque e che AMD ha, per forza di cose, ottenuto risultati migliori.
Però è altrettanto vero, come ha giustamente detto Corsini, che l'importante non è dove si vanno a fare gli utili, quanto gli stessi nel complesso. Non si va mai a finanziare o remunerare un determinato fattore produttivo attraverso una determinata fonte di finanziamento...se Nvidia Corporation avesse un fabbisogno finanziario di 100 e guadagnasse 0 dal settore desktop, 80 da quello workstation e 20 dal mobile in via teoria sarebbe a posto. Lo sarebbe anche in pratica, ma avere un settore che succhia risorse e rende poco non è certo il massimo, ma parliamo di problemi interni all'azienda che poco ci interessano.
Appunto...a me fa sorridere vedere come siano in così tanti a preoccuparsi della salute di Nvidia come azienda, se vi sta così a cuore e la volete aiutare comprate le sue schede :asd:
Mi fa piacere vedere che Corsini si stia un pò "sporcando le mani" rispondendo ad affermazioni e commenti :D
DarkNiko
17-09-2010, 12:07
Appunto...a me fa sorridere vedere come siano in così tanti a preoccuparsi della salute di Nvidia come azienda, se vi sta così a cuore e la volete aiutare comprate le sue schede :asd:
Mi fa piacere vedere che Corsini si stia un pò "sporcando le mani" rispondendo ad affermazioni e commenti :D
Io ritengo che il buon Paolo Corsini dovrebbe anche fare ammenda riguardo i tempi in cui recensì insieme al Burgazzi le 470-480 di NVidia dicendo di aver dovuto usare i guanti da forno.
Hai lontanamente presente il danno morale e materiale, che una simile recensione, per di più su un sito che ha una notevole visibilità, quale hwupgrade.it, è stato creato ?
Enorme direi, visto che
1 - E' stato smentito dagli attuali possessori delle suddette schede che occorrano i guanti da barbecue.
2 - Consumano di più è vero, ma non tanto di più di quanto si pensasse e si è scritto precedentemente.
A me danno fastidio certi commenti, che sembrano più di parte che di altro.
Ritengo che sia ATi che NVidia abbiano scelto le loro rispettive strategie. La prima mirando ai consumi e al rapporto qualità prezzo, la seconda alle pure performance (innegabilmente superiori se confrontate con la più veloce singola gpu di ATi) a scapito di costi e consumi leggermente superiori.
Inoltre certi utenti dovrebbero smetterla di scrivere autentiche puttanate, quali il fatto che NVidia è destinata al fallimento e che chiuderà bottega e che solo ATi fa le cose fatte bene. E' una autentica bugia e sfido chiunque a dimostrarmi, con fatti oggettivi e non con le solite chiacchiere da bar, il contrario. :mad:
goldorak
17-09-2010, 12:12
Appunto...a me fa sorridere vedere come siano in così tanti a preoccuparsi della salute di Nvidia come azienda, se vi sta così a cuore e la volete aiutare comprate le sue schede :asd:
Mi fa piacere vedere che Corsini si stia un pò "sporcando le mani" rispondendo ad affermazioni e commenti :D
Nvidia a questo giro fa schifo, i suoi prodotti sono assolutamente non competitivi contro quelli di ATI. Ed e' assolutamente giusto dire che Nvidia se la passa male, come d'altronde e' apparso nell'ultimo rapporto della societa'. Anche il CEO ha detto che le cose non stanno andando come speravano. Togliendo il PR significa che stanno messi male. E vero hanno il 90% del mercato professionale, ma per quanto remunerativo sia non ha mai colmato i guadagni che la societa' faceva vendendo schede nel mercato consumer.
Ed i problemi vengono proprio dal mercato consumer.
A me interssano le schede Nvidia, perche' sono il male minore in linux, ma di certo non spendo soldi solo per far "contento" Huang e il team verde.
Se non fanno uscire una scheda competitiva rimango sulla 9800gtx+ fino a quando non andra' al creatore. :asd:
DarkNiko
17-09-2010, 12:35
Nvidia a questo giro fa schifo, i suoi prodotti sono assolutamente non competitivi contro quelli di ATI. Ed e' assolutamente giusto dire che Nvidia se la passa male, come d'altronde e' apparso nell'ultimo rapporto della societa'. Anche il CEO ha detto che le cose non stanno andando come speravano. Togliendo il PR significa che stanno messi male. E vero hanno il 90% del mercato professionale, ma per quanto remunerativo sia non ha mai colmato i guadagni che la societa' faceva vendendo schede nel mercato consumer.
Ed i problemi vengono proprio dal mercato consumer.
A me interssano le schede Nvidia, perche' sono il male minore in linux, ma di certo non spendo soldi solo per far "contento" Huang e il team verde.
Se non fanno uscire una scheda competitiva rimango sulla 9800gtx+ fino a quando non andra' al creatore. :asd:
Ennesimo commento inutile il tuo. Ma almeno hai avuto modo di provarla di persona una GTX480 o inferiore prima di esordire con certi tuoi pensieri ?
Io dico di no, altrimenti ti ricrederesti.
Le soluzioni nvidia costano di più e consumano di più, nessuno lo nega (o almeno da parte mia non ci sono problemi a dire la verità). Però in termini di praticità di utilizzo lato driver e di prestazioni, sono superiori alle soluzioni ATi (ad eccezione della 5970 che è in ogni caso una soluzione dual GPU e che consuma, ma nessuno chissà com'è ne parla).
Ok non avranno venduto in proporzione come ha venduto ATi con la serie 5000, ma stai sicuro che sul piano della competitività le soluzioni NVidia sono valide, al contrario di quello che pensi e che certi fanboy del logo rosso mettono in giro, maliziosamente. :D
goldorak
17-09-2010, 12:37
Ennesimo commento inutile il tuo. Ma almeno hai avuto modo di provarla di persona una GTX480 o inferiore prima di esordire con certi tuoi pensieri ?
Io dico di no, altrimenti ti ricrederesti.
Le soluzioni nvidia costano di più e consumano di più, nessuno lo nega (o almeno da parte mia non ci sono problemi a dire la verità). Però in termini di praticità di utilizzo lato driver e di prestazioni, sono superiori alle soluzioni ATi (ad eccezione della 5970 che è in ogni caso una soluzione dual GPU e che consuma, ma nessuno chissà com'è ne parla).
Ok non avranno venduto in proporzione come ha venduto ATi con la serie 5000, ma stai sicuro che sul piano della competitività le soluzioni NVidia sono valide, al contrario di quello che pensi e che certi fanboy del logo rosso mettono in giro, maliziosamente. :D
Io ti parlo di mercato di massa e tu mi citi la GTX480 ?
Chi e' che fa ragionamenti totalmente sconclusionati ? :rolleyes:
Ennesimo commento inutile il tuo. Ma almeno hai avuto modo di provarla di persona una GTX480 o inferiore prima di esordire con certi tuoi pensieri ?
Io dico di no, altrimenti ti ricrederesti.
Le soluzioni nvidia costano di più e consumano di più, nessuno lo nega (o almeno da parte mia non ci sono problemi a dire la verità). Però in termini di praticità di utilizzo lato driver e di prestazioni, sono superiori alle soluzioni ATi (ad eccezione della 5970 che è in ogni caso una soluzione dual GPU e che consuma, ma nessuno chissà com'è ne parla).
Ok non avranno venduto in proporzione come ha venduto ATi con la serie 5000, ma stai sicuro che sul piano della competitività le soluzioni NVidia sono valide, al contrario di quello che pensi e che certi fanboy del logo rosso mettono in giro, maliziosamente. :D
La 5970 è normale che consumi dato che è una dual gpu non ti pare? non può avere mica consumi della 5850!!
ghiltanas
17-09-2010, 13:08
La 5970 è normale che consumi dato che è una dual gpu non ti pare? non può avere mica consumi della 5850!!
in realtà il confronto nn regge proprio, visto che la 5970 pur essendo dual e andando di +, consuma di meno :stordita:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/30.html
Io ti parlo di mercato di massa e tu mi citi la GTX480 ?
Chi e' che fa ragionamenti totalmente sconclusionati ? :rolleyes:
Se parliamo di mercato ti posso raccontare un aneddoto. Sto montando un pc ad un mio amico che di pc ne capisce 0 assoluto (se lo sta facendo unicamente per giocare a final fantasy xiv che non esce su xbox360). Quando siamo andati a comperare la VGA ha esplicitamente richiesto "quella con marchio verde" (parole sue) in quanto la migliore. Questo è il marketing di cui parlava corsini qualche post dietro, e questo è il mercato di massa cioè il mercato degli utenti che non ce ne capiscono una mazza e vanno per "sentito dire" o sulla base dei loghi che vedono prima dell'avvio del gioco.
Affermazioni del tipo "Nvidia sto giro ha fatto schifo" ormai le lascio perdere, già ho scritto qualche post dietro come la penso.
P.S. Al mio amico metterò una 5870
longhorn7680
17-09-2010, 13:19
Io ti parlo di mercato di massa e tu mi citi la GTX480 ?
Chi e' che fa ragionamenti totalmente sconclusionati ? :rolleyes:
Infatti e questo che si sta facendo finta di non capire!!!!
nVidia non puo sopravvivere con la serie Quadro, inquanto non incassera mai abbastanza da queste schede per cerare architetture nuove! E nelle mie considerazioni ho sempre citato il mercato mainstream e cioe la fascia fino a 120-130Eur dove nVidia e sonoramente bastonata e fuori mercato! Sono qui che si fanno i numeri! Le 480 sono sicuramente delle schede ottime, cosi come le 470, ma non possono pensare di tirare avanti solo con le pro e la fascia alta ed enthusiast! E utopia! Adesso Ati sta facendo uscire la serie HD6XXX e penso che entro 3-4 mesi avremo tutta la lineup e saranno dolori visto che GF106 non tiene il passo di RV840 figuriamoci di RV940!
in realtà il confronto nn regge proprio, visto che la 5970 pur essendo dual e andando di +, consuma di meno :stordita:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_480_Fermi/30.html
E infatti :)..
Appunto...a me fa sorridere vedere come siano in così tanti a preoccuparsi della salute di Nvidia come azienda, se vi sta così a cuore e la volete aiutare comprate le sue schede :asd:
Mi fa piacere vedere che Corsini si stia un pò "sporcando le mani" rispondendo ad affermazioni e commenti :D
Si ed e' strano che in tanti anni di forum non abbia mai letto una sua difesa tanto accorata verso un'azienda del settore.
cosa che un po' fa pensare :asd:
C'.a'.s'.s'.s'.
La situazione è analoga a qualche anno fa quando ati buttò fuori l'architettura delle HD2900, che solo nelle ultime due evoluzioni ha dato il meglio di sè. Ora speriamo che anche nVidia sappia fare lo stesso con le sue nuove schede
Kharonte85
17-09-2010, 15:14
Io ritengo che il buon Paolo Corsini dovrebbe anche fare ammenda riguardo i tempi in cui recensì insieme al Burgazzi le 470-480 di NVidia dicendo di aver dovuto usare i guanti da forno.
Una uscita infelice forse...ma non credo che Nvidia ne abbia sofferto.
Nvidia a questo giro fa schifo, i suoi prodotti sono assolutamente non competitivi contro quelli di ATI. Ed e' assolutamente giusto dire che Nvidia se la passa male, come d'altronde e' apparso nell'ultimo rapporto della societa'. Anche il CEO ha detto che le cose non stanno andando come speravano. Togliendo il PR significa che stanno messi male. E vero hanno il 90% del mercato professionale, ma per quanto remunerativo sia non ha mai colmato i guadagni che la societa' faceva vendendo schede nel mercato consumer.
Ed i problemi vengono proprio dal mercato consumer.
A me interssano le schede Nvidia, perche' sono il male minore in linux, ma di certo non spendo soldi solo per far "contento" Huang e il team verde.
Se non fanno uscire una scheda competitiva rimango sulla 9800gtx+ fino a quando non andra' al creatore. :asd:
Non sono d'accordo è vero che Nvidia è arrivata in netto ritardo ma dire che oggi le sue proposte fanno schifo è mentire. Nessuno ti obbliga a comprare la GTX 480, ci sono anche le GTX 470 le GTX460 e da poco le GTS 450 tutte valide alternative (coi pro e contro del caso) alle proposte ATI nella fascia di prezzo (e a breve arriveranno le schede basate su Gf108 per riempire la fascia bassa)
Poi per il futuro non si può sapere come risponderà Nvidia alla serie HD6xx0...non so potrebbe presentare la dual GPU, potrebbe migliorare proponendo un GF100 revisionato sulla filosofia del Gf104 (oltre a disporre teoricamente del GF104 Full), e su tutti i suoi modelli gode di un discreto margine di OC quindi potrebbe presentare versioni aggiornate (GTx 4x5) oltre che battagliare sui prezzi (cosa che faceva AMD/ATI quando era in difficoltà) ecc...insomma di cose che può fare prima di ricevere il Requiem :asd: ce ne sono.
DarkNiko
17-09-2010, 15:17
Io ti parlo di mercato di massa e tu mi citi la GTX480 ?
Chi e' che fa ragionamenti totalmente sconclusionati ? :rolleyes:
Scusami, evidentemente ho capito male. Però tu hai esordito dicendo "A questo giro Nvidia ha fatto schifo". Questo giro comprende sia la fascia enthusiast che le fasce più basse. Io personalmente mi ritengo soddisfatto di quello che è Fermi e non penso di essere l'unico ad essere rimasto colpito in positivo.
Poi per fortuna che il mondo è bello perchè vario. :D
A me sembra, ripeto sembra, che si voglia far passare ATi, così come NVidia, per quello che non sono. A che pro tutto ciò ? Solo questo mi domando.
fbrbartoli
17-09-2010, 18:38
fierissimo possessore di gtx 480.
Paolo Corsini
17-09-2010, 19:34
Io ritengo che il buon Paolo Corsini dovrebbe anche fare ammenda riguardo i tempi in cui recensì insieme al Burgazzi le 470-480 di NVidia dicendo di aver dovuto usare i guanti da forno.
Ciao
vedo in firma che hai una 480. Mettila per bene sotto stress nel tuo sistema con applicazioni 3D per una ventina di minuti, poi spegni il sistema, apri il pannello laterale e estrai la scheda.
A questo punto, chiudi la bocca ed evita di
1) gridare
2) dire parolacce
in quanto ti stai scottando la mano. A quel punto penserai che un guanto da forno ti avrebbe evitato una scottatura, per quanto superficiale.
Se spegni e aspetti 5 minuti la scheda resta calda, ma la scottatura dovrebbe essere scongiurata.
Non sono d'accordo è vero che Nvidia è arrivata in netto ritardo ma dire che oggi le sue proposte fanno schifo è mentire. Nessuno ti obbliga a comprare la GTX 480, ci sono anche le GTX 470 le GTX460 e da poco le GTS 450 tutte valide alternative (coi pro e contro del caso) alle proposte ATI nella fascia di prezzo (e a breve arriveranno le schede basate su Gf108 per riempire la fascia bassa)
E' vero che la situazione è di molto migliorata adesso.
Ma la GTX460 è arrivata da poco, la GTS450 è arrivata adesso e resta ancora scoperta la fascia bassa.
Per parecchio tempo la serie Fermi è rimasta rappresentata da GTX480/GTX470 che sono ottime VGA dal punto di vista prestazionale, purtroppo sono però VGA difficili e non per tutti (per via di consumi/calore/rumore), richiedono case/alimentatori di ottima qualità e costano un po' di più. In definitiva una persona in cerca di una buona VGA senza troppi problemi, si prendeva una ATI evitandosi ogni preoccupazione.
Come detto adesso la situazione è migliorata di molto con una scelta più ampia (ma non completa), prodotti più equilibrati (ma non in fascia enthusiast); però hanno sistemato (quasi) la situazione, mentre sta per uscire la serie HD6xx0 ;)
A Nvidia non serviva arrivare adesso con una serie competitiva e completa ma ormai vecchia... adesso gli serviva proprio una nuova serie.
P.S. Tutto ciò non porterà Nvidia alla rovina come qualcuno dice, Nvidia gode di ottima reputazione e spesso le vendite sono più determinate dal marketing che dall'analisi delle prestazioni. Ciò non toglie che ATI in questa situazione sia riuscita a rosicchiare quote importanti di mercato.
AndreaG.
17-09-2010, 20:42
Ciao
vedo in firma che hai una 480. Mettila per bene sotto stress nel tuo sistema con applicazioni 3D per una ventina di minuti, poi spegni il sistema, apri il pannello laterale e estrai la scheda.
A questo punto, chiudi la bocca ed evita di
1) gridare
2) dire parolacce
in quanto ti stai scottando la mano. A quel punto penserai che un guanto da forno ti avrebbe evitato una scottatura, per quanto superficiale.
Se spegni e aspetti 5 minuti la scheda resta calda, ma la scottatura dovrebbe essere scongiurata.
o sant'iddio... ma tu quindi all'epoca dicevi LETTERALMENTE che scottava da usare i guanti??????? :eek:
io l'avevo presa per una battuta.....
Kharonte85
17-09-2010, 21:03
Ciao
vedo in firma che hai una 480. Mettila per bene sotto stress nel tuo sistema con applicazioni 3D per una ventina di minuti, poi spegni il sistema, apri il pannello laterale e estrai la scheda.
A questo punto, chiudi la bocca ed evita di
1) gridare
2) dire parolacce
in quanto ti stai scottando la mano. A quel punto penserai che un guanto da forno ti avrebbe evitato una scottatura, per quanto superficiale.
Se spegni e aspetti 5 minuti la scheda resta calda, ma la scottatura dovrebbe essere scongiurata.
o sant'iddio... ma tu quindi all'epoca dicevi LETTERALMENTE che scottava da usare i guanti??????? :eek:
io l'avevo presa per una battuta.....
E se lo si fa con altre schede non succede? Non è che forse l'effetto scottatura è causato dal tipo di dissipatore utilizzato: potrei sbagliarmi ma sulle gtx 480 non era in materiale metallico che conduce calore anzichè ricoperto di plastica come in altre schede?
Oltretutto solo in redazione possono avere l'esigenza di cambiare le schede video al volo infornandole una dietro l'altra come se fossero i biscotti della nonna :asd:
E' vero che la situazione è di molto migliorata adesso.
Ma la GTX460 è arrivata da poco, la GTS450 è arrivata adesso e resta ancora scoperta la fascia bassa.
Per parecchio tempo la serie Fermi è rimasta rappresentata da GTX480/GTX470 che sono ottime VGA dal punto di vista prestazionale, purtroppo sono però VGA difficili e non per tutti (per via di consumi/calore/rumore), richiedono case/alimentatori di ottima qualità e costano un po' di più. In definitiva una persona in cerca di una buona VGA senza troppi problemi, si prendeva una ATI evitandosi ogni preoccupazione.
Come detto adesso la situazione è migliorata di molto con una scelta più ampia (ma non completa), prodotti più equilibrati (ma non in fascia enthusiast); però hanno sistemato (quasi) la situazione, mentre sta per uscire la serie HD6xx0 ;)
A Nvidia non serviva arrivare adesso con una serie competitiva e completa ma ormai vecchia... adesso gli serviva proprio una nuova serie.
P.S. Tutto ciò non porterà Nvidia alla rovina come qualcuno dice, Nvidia gode di ottima reputazione e spesso le vendite sono più determinate dal marketing che dall'analisi delle prestazioni. Ciò non toglie che ATI in questa situazione sia riuscita a rosicchiare quote importanti di mercato.
Ma infatti AMD/ATI ha fatto un anno spettacolare mentre invece Nvidia è arrivata in ritardo perdendo terreno...ma comunque queste cose ad uno che deve acquistare oggi non interessano granchè (a meno che non sia un'azionista di una delle due aziende :D) a seconda della fascia considerata al momento ci sono buone alternative per quasi tutti i gusti (anche nei portatili finalmente qualcosa di interessante) e questo è quello che conta ;)
Ma infatti AMD/ATI ha fatto un anno spettacolare mentre invece Nvidia è arrivata in ritardo perdendo terreno...ma comunque queste cose ad uno che deve acquistare oggi non interessano granchè (a meno che non sia un'azionista di una delle due aziende :D) a seconda della fascia considerata al momento ci sono buone alternative per quasi tutti i gusti (anche nei portatili finalmente qualcosa di interessante) e questo è quello che conta ;)
D'accordo, adesso la situazione di mercato è equilibrata, ma quanto durerà visto che ATI ha quasi pronta la serie HD6xx0?
Le VGA uscite oggi rischiano di essere già vecchie, se Nvidia non ha reali novità in vista, dato che i prodotti appena presentati sono in linea come prezzo/prestazioni/consumi con la serie HD5xx0 in via di pensionamento.
Non è che dovremo attendere i 28nm (visto che sia SI che Fermi sono pensate per quel pp), per un reale riequilibrio?
Kharonte85
17-09-2010, 23:13
D'accordo, adesso la situazione di mercato è equilibrata, ma quanto durerà visto che ATI ha quasi pronta la serie HD6xx0?
Le VGA uscite oggi rischiano di essere già vecchie, se Nvidia non ha reali novità in vista, dato che i prodotti appena presentati sono in linea come prezzo/prestazioni/consumi con la serie HD5xx0 in via di pensionamento.
Non è che dovremo attendere i 28nm (visto che sia SI che Fermi sono pensate per quel pp), per un reale riequilibrio?
E come si fa a saperlo? Come ho già detto anche Nvidia ha certi margini di manovra se saranno sufficienti non lo so ma il passaggio alla nuova generazione ad ATI non può fare che bene dato che oggi le hd58x0 sono un po' sovraprezzate (anche rispetto agli stessi prezzi di uscita se si considera che sono dell'anno scorso :stordita: ).
Aspettiamo e vediamo, a Novembre quando probabilmente avremo le schede nelle mani di tutti si potrà fare un bilancio nella speranza che Nvidia non stia a guardare ;)
E come si fa a saperlo? Come ho già detto anche Nvidia ha certi margini di manovra se saranno sufficienti non lo so ma il passaggio alla nuova generazione ad ATI non può fare che bene dato che oggi le hd58x0 sono un po' sovraprezzate (anche rispetto agli stessi prezzi di uscita se si considera che sono dell'anno scorso :stordita: ).
Aspettiamo e vediamo, a Novembre quando probabilmente avremo le schede nelle mani di tutti si potrà fare un bilancio nella speranza che Nvidia non stia a guardare ;)Sovraprezzate è dir poco, hanno prezzi scandalosi, dato il prezzo d'uscita, tenuto conto che è passato un anno e che siamo alla vigilia della nuova serie. Comprare adesso (sia ATI che Nvidia, al momento non distanti come prezzi/prestazioni) è una follia, sono VGA che potrebbero costare tranquillamente la metà del prezzo attuale.
L'assurdo è che se tengono questi prezzi significa che vendono...
sbudellaman
18-09-2010, 00:27
Sovraprezzate è dir poco, hanno prezzi scandalosi, dato il prezzo d'uscita, tenuto conto che è passato un anno e che siamo alla vigilia della nuova serie. Comprare adesso (sia ATI che Nvidia, al momento non distanti come prezzi/prestazioni) è una follia, sono VGA che potrebbero costare tranquillamente la metà del prezzo attuale.
L'assurdo è che se tengono questi prezzi significa che vendono...
Secondo me è più che altro ATI che effettua sovraprezzi, non tanto nvidia che immagino abbia costi di produzione per i suoi chip più alti (per sovrapprezzo non intendo riferito alle prestazioni ma alla differenza fra il prezzo della scheda imposto dal produttore e il suo reale costo di produzione).
Tra l'altro Ati si è fatta un nome in questo periodo, in quanto per diverso tempo a causa del ritardo di nvidia è rimasta praticamente priva di concorrenza e anche quando quest'ultima ha presentato le sue nuove schede Fermi si è rivelata per certi versi "superiore" o comunque più adatta al mercato (grazie al miglior rapporto prezzo prestazioni e miglior efficenza). Dopo un po di tempo Nvidia ha dovuto rivedere i prezzi delle sue schede e adattarsi al mercato, ma oramai Ati si era fatta molta pubblicità e ora ne sta aprofittando. E' per questo che oggi può permettersi di mantenere quei prezzi così assurdi, forse ben più alti di quelli applicati da nvidia.
I costi non sono riferiti alla materia prima, altrimenti le schede costerebbero tutte uguali e non si spiegherebbero le VGA castrate per essere vendute ad un prezzo inferiore. Certo che ci sono dei costi "vivi", ma un'azienda può vendere a prezzi molto più alti o molto più bassi di quelli sostenuti, in base alle situazioni del mercato.
Le VGA vengono vendute a prezzi che le aziende reputano sostenibili per l'acquirente, relativizzati alle prestazioni, e che siano in linea con la politica economica dell'azienda.
Se dobbiamo mettere in conto costo delle materie prime, costi di ricerca, costi di fabbricazione, costi di marketing, non la finiremmo più. Metti anche in conto i debiti di AMD (alla fine anche quelli hanno concorso alla realizzazione dei prodotti attuali) e le ATI dovrebbero farcele pagare 10.000 euro...
Quello che conta sono il rapporto prezzo/prestazioni, come sono arrivati a quei prezzi è un problema dell'azienda.
IMHO
@edit: Io intendevo, invece, che se un prodotto esce nuovo, il prezzo inizialmente alto è giustificato dalla novità e dalle migliori prestazioni. Con il passare del tempo i prezzi dovrebbero però diminuire costantemente, oltre che per l'ammortizzamento dei costi di ricerca/produzione, per stimolare le vendite che normalmente dovrebbero contrarsi, sia per l'invecchiamento dell'HW che per la minor longevità che in informatica è molto breve.
Ad un passo dall'uscita di una nuova serie, con una costante diminuzione dei prezzi, se una HD5850, partita a 200 euro, dopo un anno costasse 130 euro, non sarebbe certo strano (all'incirca quanto successo con le HD4870), è strano che costi 240 euro.
Ma non si tratta di "colpa" dell'azienda mantenere il prezzo alto, semmai di merito sotto certi versi, visto che significa che ha sfornato un prodotto competitivo e che, nonostante la concorrenza, a distanza di un anno riesce a vendere addirittura a prezzi più alti. Però, anche se ciò sarà un merito, a me scoccia pagare una VGA il doppio di quello che, se ci fosse stata più concorrenza, avrebbe potuto costare.
Semmai la "colpa" (od il merito dal loro punto di vista) è di entrambe le aziende, che non si sono fatte concorrenza dal punto di vista dei prezzi.
DarkNiko
18-09-2010, 07:52
Ciao
vedo in firma che hai una 480. Mettila per bene sotto stress nel tuo sistema con applicazioni 3D per una ventina di minuti, poi spegni il sistema, apri il pannello laterale e estrai la scheda.
A questo punto, chiudi la bocca ed evita di
1) gridare
2) dire parolacce
in quanto ti stai scottando la mano. A quel punto penserai che un guanto da forno ti avrebbe evitato una scottatura, per quanto superficiale.
Se spegni e aspetti 5 minuti la scheda resta calda, ma la scottatura dovrebbe essere scongiurata.
L'ho fatto già e non mi sono scottato. Il case è quello che vedi in firma, ha una ventola laterale che immette aria. Con furmark e sotto stress non supero gli 80° e non è che fuori siamo al Polo. Sono forse un miracolato ? Ovviamente la parte in plastica è calda. Le heatpipes sono più calde, ma non penso che uno sia così "intelligente" da prendere in mano la scheda impugnandola dalle heatpipes. Forse è per quello che vi siete scottati ? :D
Perdona il sarcasmo ma sai se ne sono dette e lette di tutti i colori e spesso non si è avuto alcun riscontro oggettivo. C'è anche da considerare che un conto è provare una VGA sul banchetto di prova, dove l'areazione è pressocché nulla, all'infuori di quello che può o non può fare la ventola della VGA, dato che la scheda è a contatto con la temperatura ambiente, discorso diverso all'interno di un case, in cui con un adeguato ricircolo d'aria si hanno condizioni nettamente migliori.
L'ho fatto già e non mi sono scottato. Il case è quello che vedi in firma, ha una ventola laterale che immette aria. Con furmark e sotto stress non supero gli 80° e non è che fuori siamo al Polo. Sono forse un miracolato ? Ovviamente la parte in plastica è calda. Le heatpipes sono più calde, ma non penso che uno sia così "intelligente" da prendere in mano la scheda impugnandola dalle heatpipes. Forse è per quello che vi siete scottati ? :D
Perdona il sarcasmo ma sai se ne sono dette e lette di tutti i colori e spesso non si è avuto alcun riscontro oggettivo. C'è anche da considerare che un conto è provare una VGA sul banchetto di prova, dove l'areazione è pressocché nulla, all'infuori di quello che può o non può fare la ventola della VGA, dato che la scheda è a contatto con la temperatura ambiente, discorso diverso all'interno di un case, in cui con un adeguato ricircolo d'aria si hanno condizioni nettamente migliori.
Ma non superi 80° con ventola a 100% fissa?? Sennò hai una 480 miracolata :)
Comunque sta storia del guanto da forno mi sembra un pò troppo sfruttata. La 480 è stata l'unica vga che ha richiesto il guanto da forno, ma quante vga conoscete che hanno il dissipatore della GPU e le heatpipe esposti e non coperti da una superficie di plastica? Prendete una 5870 e smontategli la copertura in plastica poi lanciate furmark per una 10ina di minuti, io dico che quando vai a toccare il dissipatore felice non sei :D :D
DarkNiko
18-09-2010, 11:05
Ma non superi 80° con ventola a 100% fissa?? Sennò hai una 480 miracolata :)
Comunque sta storia del guanto da forno mi sembra un pò troppo sfruttata. La 480 è stata l'unica vga che ha richiesto il guanto da forno, ma quante vga conoscete che hanno il dissipatore della GPU e le heatpipe esposti e non coperti da una superficie di plastica? Prendete una 5870 e smontategli la copertura in plastica poi lanciate furmark per una 10ina di minuti, io dico che quando vai a toccare il dissipatore felice non sei :D :D
Con ventola all'80%. Al 100% non ho mai provato, anche perchè non vorrei diventare sordo, sai com'è. :D
A parte gli scherzi, come già ripetuto, ho un ottima aerazione nel case, sarà sicuramente per quello. Inoltre Corsini ha recensito un sample di scheda. E' stato infatti dimostrato ampiamente che alcune 480, pur essendo reference, tra revisioni bios e migliori paste termiche, perdono anche 10° rispetto ai sample testati. Ecco spiegato perchè mentre alcuni toccano i 90° io mi fermo sugli 80°.
Inoltre, come tu stesso hai scherzosamente fatto osservare :D, la 480 non ha un dissipatore full cover (parlo ovviamente del modello reference) e presenta le heatpipes che fuoriescono. Discorso diverso per le soluzioni ATi, che avendo un sistema full cover e una geometria diversa (simile a i deviatori di flusso delle macchine da formula 1) risultano più tiepide. Del resto hanno provato a mettere su una 480 dissi full cover ad aria, abbassando ulteriormente il divario termico anche di altri 7-8° e quindi rimanendo sotto gli 80 in full load, il che è un ottimo risultato.
Quando ero possessore di una 5870, la scheda, con ventola al 70% (l'equivalente più o meno del 100% su NVidia, per il tipo di rumore prodotto), con FurMark superava allegramente i 70°, quindi dire a priori che una 5870 scalda meno di una 480 non è del tutto esatto se non vengono specificate quali siano le condizioni e le metodologie di test. ;)
Aurora2008
18-09-2010, 16:43
Mi piacerebbe per un secondo abbandonare il confronto ATI/Nvidia, più che altro perchè non riesco a capire la logica di ATI nel commercializzare una nuova serie di schede video.
Attualmente la fascia media ed alta del mercato è egualmente suddivisa tra le due marche, ponendo l'attenzione sul binomio prestazioni prezzo:
GTS450 Stock < 5770 < GTS450 Custom < 5830 < 5850 < GTX460 < 5870 < GTX470 < GTX480 < 5970
(l'ordine è molto indicativo, non l'ho compilato dati alla mano su prestazioni e prezzi. Deve servire più che altro per rendere l'idea)
Non sarebbe bastato ad ATI abbassare il prezzo delle schede entrate in competizione con Fermi ed eventualmente produrre un nuovo modello (5890?) che potesse contrastare le prestazioni di 470 e 480? :rolleyes:
(me ignorante in economia informatica)
le 470 mediamente sono appena dietro la 5870....per il resto sei giusto (forse anche la 460 standard sta dietro la 5850...)....ammazza, 21 pagine di roba trita e ritrita per gente di hwupgrade...mentre per uno che si vuole aggiornare sul panorama mondiale delle VGA, bhe, è una bella cultura eheheheheh
p.s. vado a fare una aprittina a L4D2...mi sono accorto da qualche anno che le VGA servono a giocare più che a creare diquisizioni eheheh
masty_<3
18-09-2010, 18:39
Io ritengo che il buon Paolo Corsini dovrebbe anche fare ammenda riguardo i tempi in cui recensì insieme al Burgazzi le 470-480 di NVidia dicendo di aver dovuto usare i guanti da forno.
Hai lontanamente presente il danno morale e materiale, che una simile recensione, per di più su un sito che ha una notevole visibilità, quale hwupgrade.it, è stato creato ?
Enorme direi, visto che
1 - E' stato smentito dagli attuali possessori delle suddette schede che occorrano i guanti da barbecue.
2 - Consumano di più è vero, ma non tanto di più di quanto si pensasse e si è scritto precedentemente.
Ma se a Corsini han sempre recriminato di essere un "verde"!
le 470 mediamente sono appena dietro la 5870....per il resto sei giusto (forse anche la 460 standard sta dietro la 5850...)....ammazza, 21 pagine di roba trita e ritrita per gente di hwupgrade...mentre per uno che si vuole aggiornare sul panorama mondiale delle VGA, bhe, è una bella cultura eheheheheh
p.s. vado a fare una aprittina a L4D2...mi sono accorto da qualche anno che le VGA servono a giocare più che a creare diquisizioni eheheh
lol.
psychok9
18-09-2010, 20:05
E' molto curioso per me leggere queste affermazioni nello stesso post:
"Lo share di schede vendute da nVidia negli anni passati, non le porteranno nessun guadagno"
e
" Avendo però le finanze in buono stato (penso, visto che non ne ho idea)"
Eppure a me pare sia abbastanza chiaro il concetto.
Quali che siano le vendite passate, non portano dollari nelle tasche di nVidia/AMD/Intel/etc anche negli anni successivi... o c'è una sorta di abbonamento per cui ci sono ancora entrate?
Per sapere questo non c'è bisogno di conoscere lo stato di un azienda. Mi sembra logico.
E' l'abc del capitalismo applicato al mercato hardware... e non solo.
Devono continuamente aggiornare i propri prodotti, con potenze sempre maggiori e features interessanti, e rendere appetibile l'acquisto.
Altrimenti parleremmo ancora di 3Dfx :)
Fai una prima affermazione che implica una conoscenza dell'andamento economico di NVIDIA, salvo poco dopo affermare di non saperne nulla.
Se scrivo
"è evidente che la Haribo sia un'azienda in declino"
e poco dopo
"io del mercato delle caramelle gommose non conosco assolutamente nulla"
sono credibile o quantomeno un po' confuso?
Come da sopra. Se nvidia cala nelle vendite, anche un buon market share ci dice ben poco, visto che una parte sarà fatto da schede vendute in anni precedenti a Fermi.
psychok9
18-09-2010, 20:06
L'ho fatto già e non mi sono scottato. Il case è quello che vedi in firma, ha una ventola laterale che immette aria. Con furmark e sotto stress non supero gli 80° e non è che fuori siamo al Polo. Sono forse un miracolato ? Ovviamente la parte in plastica è calda. Le heatpipes sono più calde, ma non penso che uno sia così "intelligente" da prendere in mano la scheda impugnandola dalle heatpipes. Forse è per quello che vi siete scottati ? :D
Perdona il sarcasmo ma sai se ne sono dette e lette di tutti i colori e spesso non si è avuto alcun riscontro oggettivo. C'è anche da considerare che un conto è provare una VGA sul banchetto di prova, dove l'areazione è pressocché nulla, all'infuori di quello che può o non può fare la ventola della VGA, dato che la scheda è a contatto con la temperatura ambiente, discorso diverso all'interno di un case, in cui con un adeguato ricircolo d'aria si hanno condizioni nettamente migliori.
Cioè devi far andare in manuale all'80% la ventola e sei anche contento? :rolleyes:
E le temperature se lasciata in auto con giochi che seriamente sfruttino la gpu?
Poi de gustibus...
DarkNiko
18-09-2010, 20:12
Cioè devi far andare in manuale all'80% la ventola e sei anche contento? :rolleyes:
E le temperature se lasciata in auto con giochi che sfruttino la gpu?
Poi de gustibus...
E' un compromesso che usano in molti. Cosa credi che anche su ATi, lasciandola in automatico (al 22% di rotazione) in Crysis la temperatura non decolla ?. Con la 5870 su Auto stavo a 75°, con una 480 su Auto arrivi a 84°, ok vince ATi, ma alla fine non penso che a quelle temperature, uno possa dire che ATi è tiepida. Ma se vuoi provare a mettere la mano su una piastra a 75° e a 84°, dubito che dopo la scottatura potrai dirmi che c'era differenza termica. :D
Io ho la ventola laterale del case che copre un pò tutti i rumori. All'80% di rotazione, la ventola NVidia la senti ma giocando, con l'audio a palla, il rumore generato dalle ventole passa in secondo piano, anzi non lo senti quasi più, quindi....
Poi, come da te detto, de gustibus. ;)
psychok9
18-09-2010, 20:19
E' un compromesso che usano in molti.
Forse dalle tue parti, non dallle mie :)
O forse intendi gli appassionati del forum che hanno acquistato le GTX 470/480? Mai letto in passato...
Sempre lasciata in auto, accettabile al max per overclock...
Cosa credi che anche su ATi, lasciandola in automatico (al 22% di rotazione) in Crysis la temperatura non decolla ?.
Ma quando mai rimane al 22%? Aumenta in proporzione alla temp... ma 80% è tanta roba...!
Con la 5870 su Auto stavo a 75°, con una 480 su Auto arrivi a 84°, ok vince ATi, ma alla fine non penso che a quelle temperature, uno possa dire che ATi è tiepida. Ma se vuoi provare a mettere la mano su una piastra a 75° e a 84°, dubito che dopo la scottatura potrai dirmi che c'era differenza termica. :D
Queste temperature andrebbero verificate, anche perchè quando esci da un gioco le temp calano drasticamente e non arrivi in tempo a vedere le temp max se non con tool tipo gpu-z settati per visualizzare la t.max. raggiunta...
La differenza tra 84°c e 75°c non è assolutamente poca.
Se con un case in piano le Fermi raggiungevano facilmente temperature superiori ai 90°c in quasi tutte le testate che hanno sempre fatto la stessa cosa con le precedenti schede nVidia e anche le attuali ATi/AMD non vedo perché negarlo.
Io ho la ventola laterale del case che copre un pò tutti i rumori. All'80% di rotazione, la ventola NVidia la senti ma giocando, con l'audio a palla, il rumore generato dalle ventole passa in secondo piano, anzi non lo senti quasi più, quindi....
Per molti questo non è accettabile :)
Poi, come da te detto, de gustibus. ;)
Infatti.
fendermexico
18-09-2010, 20:29
io che sono anni che ho almeno un paio di pc accesi nella mia camera, e che ci sono cresciuto...
...se non sento rumore delle ventole mi sento solo, a volte mi rendo
conto che tengo il pc acceso anche se non ci devo fare niente.
La prima cosa che faccio quando mi sveglio è accenderlo, poi pure se lo uso all'1 rimane lì 4 ore acceso... :mbe:
(si ok magari do un'occhiata al volo alla posta o ai feed rss, non è che proprio non lo uso...ma a volte quasi)
ad alcuni il rumore piace :p
(sempre de gustibus, ovvio che in un mediacenter in soggiorno da fastidio)
DarkNiko
18-09-2010, 20:37
Forse dalle tue parti, non dallle mie :)
O forse intendi gli appassionati del forum che hanno acquistato le GTX 470/480? Mai letto in passato...
Sempre lasciata in auto, accettabile al max per overclock...
Intendo dire che in molti usano profili per la gestione dinamica della ventola, che poi altri la tengano in auto mai detto il contrario. Se vai sul thread avrai conferma di ciò che dico.
Ma quando mai rimane al 22%? Aumenta in proporzione alla temp... ma 80% è tanta roba...!
Aumenta quando inizia a scaldare molto e ti assicuro che sopra il 50% di rotazione inizia a farsi sentire bene. 80% NVidia = 55% ATi.
Per controprova prova a mettere al 100% la ventola su una 5870, vedrai il tuo PC sollevarsi da terra per lievitazione magnetica. :D
Queste temperature andrebbero verificate, anche perchè quando esci da un gioco le temp calano drasticamente e non arrivi in tempo a vedere le temp max se non con tool tipo gpu-z settati per visualizzare la t.max. raggiunta...
La differenza tra 84°c e 75°c non è assolutamente poca.
Le temperature le prendo in gioco usando MSI Afterburner, quindi so come si fa una misura. ;)
La differenza non è poca tra 75° e 84°, sono quasi 10 gradi, che bello so contare. Dico solo che quando giochi a quelle temperature, sempre alte sono. Poi è ovvio che avere 10° in meno faccia solo che piacere.
Se con un case in piano le Fermi raggiungevano facilmente temperature superiori ai 90°c in quasi tutte le testate che hanno sempre fatto la stessa cosa con le precedenti schede nVidia e anche le attuali ATi/AMD non vedo perché negarlo.
Perchè ciò che recensiscono le testate non è una verità inoppugnabile e lo dimostra il fatto che non tutti possono riprodurre le medesime condizioni (stesso case, stessa condizione ambientale etc etc).
Se non si dispone di un case adeguato è meglio lasciarle perdere le soluzioni NVidia. Parliamoci chiaro, chi compra queste schede si spera che abbia un minimo di nozioni in materia e non sia il solito bambino sborone che va dal papino a chiedere i soldi per comprarsi l'ultimo giocattolo tecnologico.
Poi se per te un metro di giudizio nell'acquisto di una scheda è il test di FurMark per far vedere che le 480 scaldano di più di una 5870, allora permettimi di dirti che non stai messo bene.
Secondo te io che spendo 480 euro per una VGA mi metto a fare i test con furmark dalla mattina alla sera o penso a giocare ? Direi più la seconda e, fino a prova contraria, nei giochi le temperature di furmark non le vedi, per la semplice ragione che furmark spreme come limoni le GPU (e lo ritengo utile più per testare la stabilità di una scheda che per altro), mentre i giochi (eccetto Crysis) in media non richiedono una tale mole di lavoro per una GPU.
Se me lo permetti, l'utente che hai quotato e criticato ha fatto osservazioni molto corrette e pertinenti; per i dati che ha indicato basta cercare un po' di fonti facilmente reperibili, anche sulle news di Hardware Upgrade.
La tua risposta, francamente, è proprio campata per aria e non basata su nulla di oggettivo.
Grazie per il supporto, ma lascia stare, non è che puoi ragionare con certa gente.
Il numero di faccine e di punti esclamativi presenti nei suoi post basta a rendere l'idea di quanto faziosi e "fanboystici" siano i suoi commenti, nessuno di serio darà gli darà mai la minima credibilità.
Quindi non c'è di che preoccuparsi...
Paolo Corsini
18-09-2010, 21:17
...
Come da sopra. Se nvidia cala nelle vendite, anche un buon market share ci dice ben poco, visto che una parte sarà fatto da schede vendute in anni precedenti a Fermi.
Guarda che la quota di mercato di un'azienda in uno specifico settore, quando si analizzano le vendite, riguarda quante delle vendite in uno specifico periodo di tempo sono state catturate da quell'azienda.
Esempio: se la quota di mercato di NVIDIA nel settore GPU desktop discrete è stata nel Q2 2010 del 56%, questo vuol dire che ogni 100 schede di quel tipo vendute da Aprile a Giugno 2010 56 sono con GPU NVIDIA.
Questo dato non ha nulla a che vedere con il totale delle schede presenti nei sistemi, cioè vendute precedentemente. Ho la sensazione che confondi i due concetti, o quantomeno questo è quello che derivo leggendo il periodo che ho quotato.
psychok9
18-09-2010, 21:42
Guarda che la quota di mercato di un'azienda in uno specifico settore, quando si analizzano le vendite, riguarda quante delle vendite in uno specifico periodo di tempo sono state catturate da quell'azienda.
Esempio: se la quota di mercato di NVIDIA nel settore GPU desktop discrete è stata nel Q2 2010 del 56%, questo vuol dire che ogni 100 schede di quel tipo vendute da Aprile a Giugno 2010 56 sono con GPU NVIDIA.
Questo dato non ha nulla a che vedere con il totale delle schede presenti nei sistemi, cioè vendute precedentemente. Ho la sensazione che confondi i due concetti, o quantomeno questo è quello che derivo leggendo il periodo che ho quotato.
Io infatti non ho mai parlato di mesi... ma di share riferito al totale.
Anche l'utente longhorn7680 mi pare parlasse di questo:
C'e per caso qualche economista che riesce a spiegargli che le schede vendute dal 2007 al 2009 non portano guadagni ad nVidia oggi e tanto meno nei prossimi 8 mesi prima dell'ipotetico lancio di Fermi2
La GM ha il parco circolante piu grosso al mondo eppur e sull'orlo del fallimento!! Giusto per fare un esempio!
Parla di parco circolante (intero) e degli anni 2007 -> 2009.
Elrim diceva:
E in campo gaming ci sono sempre il doppio di gpu Nvidia in circolazione rispetto alle ATI.
Non leggo da nessuna parte una restrizione in qualche mese o nell'anno 2010. Quindi il misunderstanding non è mio.
Paolo Corsini
19-09-2010, 06:35
Ciao
per dipanare eventuali interpretazioni errate, a prescindere da chi le abbia fatte
1) il market share è su un periodo limitato di tempo, e si riferisce alle vendite di quel periodo solo
2) che un'azienda abbia venduto 100 fino a ieri non ha influenza diretta sulle vendite da oggi in poi, a meno che le vendite siano fortemente legate alla componente ripetitifità - legame al marchio
3) dire ora che le vendite delle schede Fermi non portano ad NVIDIA alcun margine di profitto non è possibile, in quanto non conosciamo i margini precisi di NVIDIA (non sono dati pubblici) tantomeno i volumi e la ripartizione tra le varie schede. Lo stesso ragionamento, del resto, può essere fatto sulle soluzioni ATI
4) l'ultima trimestrale di NVIDIA ha evidenziato vendite inferiori al previsto e costi più elevati, cosa che fa pensare con buona sicurezza che NVIDIA abbia ottenuto margini inferiori rispetto a quanto inizialmente previsto per quella tipologia di prodotti.
sintetizzando quindi...gli estimatori di nvidia comprando a più non posso le GF100 ne decretano pian piano la morte?sembra un caso "kafkiano"....
Aurora2008
20-09-2010, 10:32
Provo a riporre una domanda:
Più che produrre una serie nuova, ad ATI non sarebbe bastato produrre una nuova scheda (5890?) in grado di posizionarsi a livello delle soluzioni 470/480 di Nvidia, abbassando il prezzo dei modelli "vecchi" (5870,5850, ecc.) rendendoli quindi maggiormente competitivi con le soluzioni Fermi? :rolleyes:
Provo a riporre una domanda:
Più che produrre una serie nuova, ad ATI non sarebbe bastato produrre una nuova scheda (5890?) in grado di posizionarsi a livello delle soluzioni 470/480 di Nvidia, abbassando il prezzo dei modelli "vecchi" (5870,5850, ecc.) rendendoli quindi maggiormente competitivi con le soluzioni Fermi? :rolleyes:
Cioè ti lamenti del fatto che ati dopo 1 anno vuole introdurre una architettura nuova senza fare rebranding (perchè è di questo che stai parlando se intendi una 5870 con frequenze più elevate)?
Mah, fanno rebranding e ci lamentiamo, non li fanno e li vogliamo...
sinceramente son contento che amd voglia introdurre una architettura nuova.
Significa che non si siedono sugli allori ma cercano costantemente di rinnovarsi...
Tanto sia che esca una 5890 o una 6870 cmq le 5870-50 sono destinate a scendere di prezzo, quindi non vedo il problema U_U
Cioè ti lamenti del fatto che ati dopo 1 anno vuole introdurre una architettura nuova senza fare rebranding (perchè è di questo che stai parlando se intendi una 5870 con frequenze più elevate)?
Mah, fanno rebranding e ci lamentiamo, non li fanno e li vogliamo...
sinceramente son contento che amd voglia introdurre una architettura nuova.
Significa che non si siedono sugli allori ma cercano costantemente di rinnovarsi...
Tanto sia che esca una 5890 o una 6870 cmq le 5870-50 sono destinate a scendere di prezzo, quindi non vedo il problema U_U
Quoto!!!! Ogni volta ci si lamenta per tutto..se fanno rebrading tutti ad attaccare..se non lo fanno tutti ad attaccare..io sinceramente certe volte non ci capisco una mazza!!!
Aurora2008
20-09-2010, 12:59
Non mi pare proprio di essermi lamentato... :mbe:
Mettendo da parte la mia visione come consumatore (per la quale non posso che essere contento del'impegno tecnologico da parte di ATI), faccio fatica a capire come mai ATI non abbia spostato le proprie proposte ritoccando i prezzi. Economicamente parlando, suppogo gravi di più la commercializzazione di una nuova serie (e conseguente ritiro dal mercato della precedente) piuttosto che una ritariffazione (tra l'altro mai effettuata) delle soluzioni attualmente sul mercato...
Una HD5890 sarebbe una HD5870 "estrema", quindi nulla di nuovo.
Tu vorresti una HD5870 OC, che rivaleggerebbe a malapena con la GTX480 ed i prezzi della serie HD5xx0 diminuiti.
Vista dal punto di vista AMD significherebbe solo non guadagnare quote di mercato nei confronti di Nvidia (non proporrebbe nulla di nuovo) e vendere VGA a prezzi inferiori (tranne la HD5890, che comunque, una volta diminuito il prezzo della HD5870, non potrebbe vendere a molto di più).
Inoltre proporre nuove serie serve anche per stimolare il rinnovo dell'HW, quindi si punterebbe anche su chi già ha una VGA HD5xx0; ma proporre VGA vecchie ad un prezzo più basso servirebbe solo per gli utenti che hanno serie precedenti alla HD5xx0 (che sarebbero comunque interessati anche ad una serie nuova), ma non interesserebbe sicuramente chi già possiede una HD58x0.
Vista dal punto di vista del consumatore, non ci sarebbe alcun vantaggio, visto che la diminuzione dei prezzi ci sarebbe comunque (o diminuendo i prezzi della serie HD5xx0 o vendendo modelli equivalenti della serie HD6xx0 a prezzo inferiore), ma ci sarebbe invece un chiaro svantaggio per chi è interessato ad una VGA più potente (e non tirata per il collo come una HD5890), con un buon rapporto consumi/prestazioni (come ci si attende sia questa serie HD6xx0).
Insomma, fatico a capire chi trarrebbe vantaggio da quanto tu chiedi, o meglio, se ne avvantaggerebbe Nvidia, cosa che non penso ad AMD farebbe molto piacere...
Una HD5890 avrebbe avuto senso qualche mese fa per migliorare la concorrenzialità della serie, adesso è decisamente meglio una nuova serie.
Una HD5890 sarebbe una HD5870 "estrema", quindi nulla di nuovo.
Tu vorresti una HD5870 OC, che rivaleggerebbe a malapena con la GTX480 ed i prezzi della serie HD5xx0 diminuiti.
Vista dal punto di vista AMD significherebbe solo non guadagnare quote di mercato nei confronti di Nvidia (non proporrebbe nulla di nuovo) e vendere VGA a prezzi inferiori (tranne la HD5890, che comunque, una volta diminuito il prezzo della HD5870, non potrebbe vendere a molto di più).
Inoltre proporre nuove serie serve anche per stimolare il rinnovo dell'HW, quindi si punterebbe anche su chi già ha una VGA HD5xx0; ma proporre VGA vecchie ad un prezzo più basso servirebbe solo per gli utenti che hanno serie precedenti alla HD5xx0 (che sarebbero comunque interessati anche ad una serie nuova), ma non interesserebbe sicuramente chi già possiede una HD58x0.
Vista dal punto di vista del consumatore, non ci sarebbe alcun vantaggio, visto che la diminuzione dei prezzi ci sarebbe comunque (o diminuendo i prezzi della serie HD5xx0 o vendendo modelli equivalenti della serie HD6xx0 a prezzo inferiore), ma ci sarebbe invece un chiaro svantaggio per chi è interessato ad una VGA più potente (e non tirata per il collo come una HD5890), con un buon rapporto consumi/prestazioni (come ci si attende sia questa serie HD6xx0).
Insomma, fatico a capire chi trarrebbe vantaggio da quanto tu chiedi, o meglio, se ne avvantaggerebbe Nvidia, cosa che non penso ad AMD farebbe molto piacere...
Una HD5890 avrebbe avuto senso qualche mese fa per migliorare la concorrenzialità della serie, adesso è decisamente meglio una nuova serie.
Assolutamente daccordo :)
Aurora2008
20-09-2010, 23:44
[...]
Grazie mille per la delucidazione, era proprio quello che volevo comprendere ;)
Mi piacerebbe per un secondo abbandonare il confronto ATI/Nvidia, più che altro perchè non riesco a capire la logica di ATI nel commercializzare una nuova serie di schede video.
Attualmente la fascia media ed alta del mercato è egualmente suddivisa tra le due marche, ponendo l'attenzione sul binomio prestazioni prezzo:
GTS450 Stock < 5770 < GTS450 Custom < 5830 < 5850 < GTX460 < 5870 < GTX470 < GTX480 < 5970
(l'ordine è molto indicativo, non l'ho compilato dati alla mano su prestazioni e prezzi. Deve servire più che altro per rendere l'idea)
Non sarebbe bastato ad ATI abbassare il prezzo delle schede entrate in competizione con Fermi ed eventualmente produrre un nuovo modello (5890?) che potesse contrastare le prestazioni di 470 e 480? :rolleyes:
(me ignorante in economia informatica)
In realtà l'ordine giusto sarebbe:
5750 < GTS450 < 5770 << 5830 < GTX 460 768MB < 5850=GTX460 < GTX 470 < 5870 < GTX 480 < 5970
Sostanzialmente ad ATi non gliene frega niente di fare un'ipotetica 5890 perché:
1)La GTX480 sta comunque sotto alla 5970, inoltre ha un prezzo spropositato per le prestazioni, troppo simili a 5870 e GTX470, ergo è fuori mercato.
2)La GTX470 che è diventata preferibile alla 5870 e alla 5850 solo da poco tempo, quando il prezzo è sceso intorno ai 250 euro. Prima 470 e 460 di certo non la impensierivano, ed hanno avuto ragione visto che nvidia ha venduto molto meno di ciò che si aspettava ed il suo market share nell'ultimo anno è calato di brutto a favore di Ati.
Ora come ora le GTX 460 e 470 sono preferibili alle 5800 per quanto riguarda il rapporto prezzo prestazioni, però tempo 1 mese e verrano presentate le Radeon 6000, e non è escluso che AMD abbia ridotto di molto la produzione di tali schede in modo da svuotare i magazzini per poi partire subito con la nuova generazione e lasciare nvidia al palo.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.