PDA

View Full Version : ATI Mobility Radeon HD 5000, 40 nanometri per i portatili


Redazione di Hardware Upg
07-01-2010, 06:00
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2355/ati-mobility-radeon-hd-5000-40-nanometri-per-i-portatili_index.html

Bassi consumi, quattro soluzioni per quattro scenari differenti e supporto ad ATI Eyfinity: sono questi gli ingredienti della ricetta di AMD per la nuova generazione di GPU mobile. In anticipo sul rivale di sempre, NVIDIA

Click sul link per visualizzare l'articolo.

M4R1|<
07-01-2010, 06:39
Un ottimo connubio tra prestazioni elevate e consumi ridottissimi sia grazie ai 40nm che alla innovazioni in campo energetico che AMD ha introdotto con la serie HD5000.
Oggi un portatile con una 5800 mobile, qui di fascia alta, si ritrova una scheda adatta fino ai 1680x1050 senza rinunciare a nulla e cmq una valida soluzione per il FullHD con tutte le innovazioni del caso, come le DX11, la migliore IQ e Eyefinity (il quale rappresenta il massimo per il lavoro). Idem per le 5700 mobile che garantiscono ottime prestazioni nella risoluzione più classica dei portatili da 15.4", 1366x768.

ac123
07-01-2010, 08:37
Nella tabella a pagina 2 ci deve essere un errore alla voce potenza computazionale per le 5700/5600/5400, dovrebbero essere gflop e non tflop.

int main ()
07-01-2010, 08:37
dai però.... ancora 128 bit addirittura per la top d gamma... è veramente na cazzata dai

rxd8s
07-01-2010, 08:50
La domanda è: a quando la commercializzazione effettiva? Fortunatamente ATI riesce di solito a rispettare tempistiche accettabili; quello che invece non capisco è la riluttanza degli assemblatori nell'utilizzare le loro soluzioni di fascia alta. Vedasi il caso della 4870 Mobile; pochissimi notebook equipaggiati e per lo più con soluzioni Crossfire. A prezzi, ovviamente, esorbitanti.

*Caos*
07-01-2010, 08:56
dai però.... ancora 128 bit addirittura per la top d gamma... è veramente na cazzata dai

Sì ma queste schede montano DDR5 e non DDR3 come le Nvidia. Il throughput non è dato solo dalla dimensione della banda tant'è che in termini di Gflop una 4800 annichilisce una GTX 280 (1,2 Tflops Vs. 562 Gflops).

La domanda è: a quando la commercializzazione effettiva? Fortunatamente ATI riesce di solito a rispettare tempistiche accettabili; quello che invece non capisco è la riluttanza degli assemblatori nell'utilizzare le loro soluzioni di fascia alta. Vedasi il caso della 4870 Mobile; pochissimi notebook equipaggiati e per lo più con soluzioni Crossfire. A prezzi, ovviamente, esorbitanti.

In effetti farebbe piacere vedere queste schede anche nei portatili e non solo nelle pubblicazioni di lancio. Finché si limitano a snocciolare numeri sono tutti bravi. Quand'è che si decidono a metterle in distribuzione?
Al mercato mainstream ci sono arrivati ora mancano soltanto la fascia media ed enthusiast.

Xeno665
07-01-2010, 08:56
Almeno non è il rebrand di Nvidia...
Appena esce un 13" con 54xx lo prendo al volo! Magari con un core i3 :gluglu:

int main ()
07-01-2010, 09:01
Sì ma queste schede montano DDR5 e non DDR3 come le Nvidia. Il throughput non è dato solo dalla dimensione della banda tant'è che in termini di Gflop una 4800 annichilisce una GTX 280 (1,2 Tflops Vs. 562 Gflops).



In effetti farebbe piacere vedere queste schede anche nei portatili e non solo nelle pubblicazioni di lancio. Finché si limitano a snocciolare numeri sono tutti bravi. Quand'è che si decidono a metterle in distribuzione?
Al mercato mainstream ci sono arrivati ora mancano soltanto la fascia media ed enthusiast.

si però mettergli un 256 ora come ora specialmente nella top d gamma mi sembra il minimo minimo! poi io ho una 4870 da 1gb vaporX e sono rimasto di merda quando su the sims 3 per via dei driver schifosi gli alberi e tutta la vegetazione si vedevano malissimo. e mica stiamo parlando di un gioco sconosciuto... ma sims 3!! io presi questa scheda video per risparmiare dato che non avevo molti soldi in quel periodo.. ma dato che la sto iniziando a sfruttare solo ora mi sto davvero pentendo...non si può vedere dai...

*Caos*
07-01-2010, 09:06
si però mettergli un 256 ora come ora specialmente nella top d gamma mi sembra il minimo minimo! poi io ho una 4870 da 1gb vaporX e sono rimasto di merda quando su the sims 3 per via dei driver schifosi gli alberi e tutta la vegetazione si vedevano malissimo. e mica stiamo parlando di un gioco sconosciuto... ma sims 3!! io presi questa scheda video per risparmiare dato che non avevo molti soldi in quel periodo.. ma dato che la sto iniziando a sfruttare solo ora mi sto davvero pentendo...non si può vedere dai...

Sinceramente un problema del genere non credo sia imputabile alla dimensione della banda.
Ad ogni modo ribadisco che in linea teorica delle RAM più veloci riescono ampiamente a colmare il gap prestazionale di un bus più ridotto oltre a costare meno in termini di sviluppo e produzione (e pare che anche Nvidia ripercorrerà questa politica).

nickfede
07-01-2010, 09:34
dai però.... ancora 128 bit addirittura per la top d gamma... è veramente na cazzata dai

Se hanno optato per questa soluzione significa che il throughput generale non fa da collo di bottiglia......o pensi che fior di ingegneri stiano li solo per scaldare la sedia.......

Pat77
07-01-2010, 09:50
Rispetto alla mia 4650 si passa da 320 a 400 sp, sinceramente già ora non c'è nulla che la metta minimamente in difficoltà, come Nvidia le mobile dimezzano gli SP ora, io credevo sinceramente mantenessero gli stessi SP tra fisse e mobili come da tradizione, ma evidentemente non era possibile continuare con questi rapporti.

Stech1987
07-01-2010, 09:59
Se hanno optato per questa soluzione significa che il throughput generale non fa da collo di bottiglia......o pensi che fior di ingegneri stiano li solo per scaldare la sedia.......

Veramente i 128 bit FANNO da collo di bottiglia: parliamo di un HW del tutto paragonabile alla 5770, a sua volta molto simile alla 4890 se non fosse che quest'ultima ha 256 bit, e vedendo i benchmark (leggi questa recensione (http://www.hwupgrade.it/articoli/skvideo/2308/ati-radeon-hd-5750-directx-11-a-buon-mercato_index.html) di HWU, è sulla 5750, ma nei bench compare anche la sorella maggiore 5770) è evidente come questo rallenti considerevolmente la scheda, specie - come ovvio - al crescere della risoluzione. Per il resto ottima scheda, consumi ridotti e prestazioni in ogni caso maggiori a qualsiasi altra GPU mobile... Brava ATi!

Kharonte85
07-01-2010, 10:12
Mobility Radeon HD 5800 series

The 5800 series is based on the desktop HD 5770 with lower clock rates. Therefore, the performance of the Mobility Radeon HD 5870 / 5850 is far away from the desktop HD 5800 series. As long as GDDR5 is used, the 128 Bit memory bus wont be a big limitation, but the notebook vendors are also free to use cheap (G)DDR3 RAM that will decrease the performance noticably.

* ATI Mobility Radeon HD 5870

800 Shader, 128 Bit memory bus, (G)DDR3, GDDR5, 700 / 2000 MHz Core / Memory

* ATI Mobility Radeon HD 5850

800 Shader, 128 Bit memory bus, (G)DDR3, GDDR5, 625 / 2000 MHz Core / Memory

According to AMD, the Mobility Radeon HD 5870 should be the fastest single core GPU for laptops and about 20% faster than a GeForce GTX 280M (altough the GTX 285M is comming that will close that gap a bit). The planned Crossfire variants should take the first place in benchmark list.



Mobility Radeon HD 5600/5700 series

The Mobility 5700 series is also not similar to the desktop HD 5700 series, but only a higher clocked Mobility Radeon HD 5650 with GDDR5 support (partly). The Mobility 5600 / 5700 offer 400 stream processors and 625 Mio transistors. As the 5800 series, the 5600 / 5700 offers a 128 Bit memory bus (for up to GDDR5 with 1600 MHz).

* ATI Mobility Radeon HD 5770 (in the slides called 5757)
* ATI Mobility Radeon HD 5750
* ATI Mobility Radeon HD 5730
* ATI Mobility Radeon HD 5650 (with lots of benchmarks)



Mobility Radeon HD 5400 series

The HD 5400 models are the new entry level graphic cards from AMD and offer only 80 stream processors (5-dimensional). Furthermore, the memory bus is cut down to 64 Bit. GDDR5 is also supported in the top model. Eyfinity Support is cut down to 4 displays (other series 6).

* ATI Mobility Radeon HD 5470 750 MHz core clock
* ATI Mobility Radeon HD 5450
* ATI Mobility Radeon HD 5430

http://www.notebookcheck.net/Newsentry.153+M5898b1db710.0.html



E così pare che la 5800 mobile in realtà sarà simile ad una HD 5770 desktop...mi aspettavo meglio, alla fine non differiranno molto dalla Mobility Radeon HD 4870.

*Caos*
07-01-2010, 10:26
Secondo me se si downclockassero le frequenze di una 5770 e una 4890 alle frequenze di una 5850/70 mobility la differenza di bus non si vedrebbe.

Pat77
07-01-2010, 10:30
E così pare che la 5800 mobile in realtà sarà simile ad una HD 5770 desktop...mi aspettavo meglio, alla fine non differiranno molto dalla Mobility Radeon HD 4870.

La 5800 mobility è pensata per la 1920x1200 e penso sia adeguata consumando molto meno di prima e supportando dx11, per me sperare in 1600sp era troppo effettivamente e un controsenso sui note.
Io con 4650 ho un autonomia con una 6 celle di circa 2 ore e 40, per me con una media 5xxx si arriverà a 3 ore e mezza.

Kharonte85
07-01-2010, 10:35
La 5800 mobility è pensata per la 1920x1200 e penso sia adeguata consumando molto meno di prima e supportando dx11, per me sperare in 1600sp era troppo effettivamente e un controsenso sui note.
Io con 4650 ho un autonomia con una 6 celle di circa 2 ore e 40, per me con una media 5xxx si arriverà a 3 ore e mezza.

Sicuramente consumerà meno, pero' con quelle caratteristiche non ci sarà un salto prestazionale molto elevato rispetto alla generazione precedente.

Gendo01
07-01-2010, 10:41
Ho appena visto che santech mette già a disposizione per la configurazione la 5870 per il modello n56.

rb1205
07-01-2010, 10:48
Ambigui al limite del truffaldino, quei grafici 3D... Con quell'angolazione il parallasse porta a leggere valori più alti alla prima occhiata, e comunque a non riuscire a stimare i dati corretti.

Capozz
07-01-2010, 10:48
si però mettergli un 256 ora come ora specialmente nella top d gamma mi sembra il minimo minimo! poi io ho una 4870 da 1gb vaporX e sono rimasto di merda quando su the sims 3 per via dei driver schifosi gli alberi e tutta la vegetazione si vedevano malissimo. e mica stiamo parlando di un gioco sconosciuto... ma sims 3!! io presi questa scheda video per risparmiare dato che non avevo molti soldi in quel periodo.. ma dato che la sto iniziando a sfruttare solo ora mi sto davvero pentendo...non si può vedere dai...

A me funziona bene, mai sentito un problema simile comunque

Comunque speravo che la mobility 5800 fosse più potente, alla fine è una 5750 con frequenze segate...peccato perchè, vista la risoluzione dei monitor montati su notebook top di gamma, mi sa che con bus a 128 bit e memorie a 4Ghz in qualche caso saranno dolori.

Severnaya
07-01-2010, 10:50
Ambigui al limite del truffaldino, quei grafici 3D... Con quell'angolazione il parallasse porta a leggere valori più alti alla prima occhiata, e comunque a non riuscire a stimare i dati corretti.


:mbe:

cionci
07-01-2010, 10:53
Veramente i 128 bit FANNO da collo di bottiglia: parliamo di un HW del tutto paragonabile alla 5770, a sua volta molto simile alla 4890 se non fosse che quest'ultima ha 256 bit, e vedendo i benchmark (leggi questa recensione (http://www.hwupgrade.it/articoli/skvideo/2308/ati-radeon-hd-5750-directx-11-a-buon-mercato_index.html) di HWU, è sulla 5750, ma nei bench compare anche la sorella maggiore 5770) è evidente come questo rallenti considerevolmente la scheda, specie - come ovvio - al crescere della risoluzione. Per il resto ottima scheda, consumi ridotti e prestazioni in ogni caso maggiori a qualsiasi altra GPU mobile... Brava ATi!
E' chiaro che a parità di frequenza della ram un bus a 128 bit rispetto ad un bus a 256 bit sia nettamente infeirore. Però supponendo di mettere ram che hanno frequenze doppie rispetto a quelle con il bus a 256 bit avrai la stessa bandwidth massima. Non è possibile quindi giudicare un sottosistema di memoria solo in base all'ampiezza di bus.
Conta inoltre che i link del bus hanno un costo molto alto, producono calore, costringono ad adottare un numero di chip doppio ed hai avuto la motivazione per cui queste schede mobile sono a 128 bit.
Evidentemente e giustamente si sono trovati a dover mediare fra prestazioni e consumi.

Pat77
07-01-2010, 10:59
Sicuramente consumerà meno, pero' con quelle caratteristiche non ci sarà un salto prestazionale molto elevato rispetto alla generazione precedente.

Vedremo, nella fascia media qualcosa in più si vedrà, ma è chiaro che sia uno step che vuol tagliare più che altro i consumi e aumentare il supporto.

Capozz
07-01-2010, 11:11
E' chiaro che a parità di frequenza della ram un bus a 128 bit rispetto ad un bus a 256 bit sia nettamente infeirore. Però supponendo di mettere ram che hanno frequenze doppie rispetto a quelle con il bus a 256 bit avrai la stessa bandwidth massima. Non è possibile quindi giudicare un sottosistema di memoria solo in base all'ampiezza di bus.
Conta inoltre che i link del bus hanno un costo molto alto, producono calore, costringono ad adottare un numero di chip doppio ed hai avuto la motivazione per cui queste schede mobile sono a 128 bit.
Evidentemente e giustamente si sono trovati a dover mediare fra prestazioni e consumi.

Queste al massimo hanno memorie a 4ghz, la banda passante quindi sarà più o meno intorno ai 70 gb/s, che non sono pochi, ma forse un pò restrittivi in alcuni casi ipotizzando verranno montate su notebook con schermi full hd.
Comunque visto che parliamo di schede per notebook non è un grosso problema...però speravo che la top di gamma fosse un pò più potente.

ilratman
07-01-2010, 11:14
Queste al massimo hanno memorie a 4ghz, la banda passante quindi sarà più o meno intorno ai 70 gb/s, che non sono pochi, ma forse un pò restrittivi in alcuni casi ipotizzando verranno montate su notebook con schermi full hd.
Comunque visto che parliamo di schede per notebook non è un grosso problema...però speravo che la top di gamma fosse un pò più potente.

io aspetto la versione firepro della fascia media che dovrebbe essere montata sul nuovo precision m4500 da 15.4", ovviamente 1920x1200, e poi cambio portatile con i5!

rb1205
07-01-2010, 12:02
bravo! li per lì non l'avevo notato, però è vero, mi viene quasi da ridere!! così sembra che si superi il 60%, mentre se provi a tracciare un'ipotetica linea di fuga arriveresti a spanne a un 5% in meno?
però non demonizzerei ati per questo.. sono pratiche comuni, nel mondo del marketing e pubblicità, di storpiare i dati al limite del possibile e farli apparire come uno preferisce! è anche divertente!! :D

Certo, è uno dei tanti "trucchetti" che danno lavoro agli esperti di marketing. è comunque interessante farli notare sia per migliore valutazione del prodotto che, come dici, per il divertimento di giocare con i dati. Nel grafico delle performances per watt, oltre all'aumento fittizio dell'altezza che hai illustrato tu, utilizzano anche la prospettiva, i colori e i riflessi per aumentare il divario percepito tra le varie colonne: Dalla 3650 alla 5750 il coefficente è poco meno che quadruplicato (1->poco meno di 4), ma a occhio si direbbe che il rapporto sia molto maggiore.

killer978
07-01-2010, 12:03
Non fatevi tante pippe mentale sul bus a 128bit, chi prende un portatile x gaming ovviamente cerca di adattarsi, e poi con quell'armamentario 800sp DDR5 a 4,0ghz mi dite quale gioco andrebbe male? oggi sono quasi tutti porting ed una 5770/4890 fa girare tutto al max in full HD, se poi uno vuole giocare a Crysis scende un po con la risoluzione e ci gioca da dio!! Queste schedine sono pensate x avere prestazioni ottime ma consumi ridotti.

Stech1987
07-01-2010, 12:13
EDIT: cut
...Però supponendo di mettere ram che hanno frequenze doppie rispetto a quelle con il bus a 256 bit...
EDIT: cut

Posso permettermi, credo, di ritenere quantomeno improbabile che montino chip a 7800mhz :sofico:
Che implementare il bus a 256bit sia più costoso e difficilmente gestibile da una scheda mobile è vero, è anche vero però che imho dato il prezzo altissimo a cui vengono vendute queste soluzioni ci starebbe lo stesso averlo implementato (tanto credo che sia una soluzione soprattutto per desktop replacement, più che per notebook vero e proprio...!)

Cmq mi piacerebbe vedere un all-in-one con un CF di queste schedozze...!

marmotta88
07-01-2010, 12:28
Immagino che le 5700-5800 saranno delle mosche bianche nei pc da grande distribuzione, penso che si troverà un modello da 1400€ ogni 2 o 3 negozi.
Spero che la 5650 arrivi in tutti i negozi abbinata ad un I5 al prezzo non superiore a 800€

Sono rimasto male quando ho visto 128 bit di bus nel top di gamma, speravo tanto in un bus almeno a 192bit (anche nella fascia media, ma quando elimineranno il bus a 64bit? non è d'epoca ormai?).

Al più mi sarebbe interessata una 5570m con bus da 128bit venduta su un 15,6 a 700€.

OT:
a) Ma da GPU-Z come si fa a vedere il numero di stream processor?
b) Spesso vedo nei commenti indicate i prezzi con la sigla &8364, cosa vuol dire?

Ciao e grazie a chi mi risponderà

cionci
07-01-2010, 13:06
Posso permettermi, credo, di ritenere quantomeno improbabile che montino chip a 7800mhz :sofico:
Ma che c'entra, era un discorso teorico. Serviva per far capire il contesto. Una 4850 ha il bus a 256 bit....bello no ? No perché ha le memorie a 2 Ghz.
Era per dire che è inutile prendere la sola ampiezza di bus come metro di paragone. Bisogna fare un discorso più generale sulla bandwidth complessiva e se questa possa essere o meno saturata della GPU.

ilratman
07-01-2010, 13:09
Ma che c'entra, era un discorso teorico. Serviva per far capire il contesto. Una 4850 ha il bus a 256 bit....bello no ? No perché ha le memorie a 2 Ghz.
Era per dire che è inutile prendere la sola ampiezza di bus come metro di paragone. Bisogna fare un discorso più generale sulla bandwidth complessiva e se questa possa essere o meno saturata della GPU.

quoto

poi però il 128bit con memorie a 4800 della 5770 già è saturo, infatti si è visto ottimi incrementiprestazionali aumentando il bus delle memorie a 1350.

diciamo che probabilmente in ambito mobile questo sarà meno importante perchè con le frequenze ridotte del core, per diminuire il consumo, non si avrà saturazione di banda.

Prodigy-86
07-01-2010, 13:40
ma una 585a su che fascia di prezzo sarà? ditemi meno di 1500!:muro:

ilratman
07-01-2010, 13:42
ma una 585a su che fascia di prezzo sarà? ditemi meno di 1500!:muro:

credo di si perchè la 5870 sarà sui 1500!

StePunk81
07-01-2010, 13:42
wow quindi fra un paio d'anni vedremo le 5800 montate su un nb?

ghiltanas
07-01-2010, 14:55
mmm con le 5000 pensavo si puntasse anche un pò sulle prestazioni, però va bè le prestazioni nn sono poi malaccio mentre i consumi dovrebbero essere ottimi (cosa fondamentale nei nb).

per il disc bus, penso dovrebbe esser chiaro a tutti che il calcolo della banda conta anche la freq delle mem, e un bus a 128bit costa meno di uno a 256. Cmq se la 5870m è in pratica una 5770 desktop sarà limitata come quest'ultima dalla banda (cosa chiaramente voluta, una 5770 a 256bit avrebbe dato troppo noia alle vendite della 5850, per avere una scheda cosi bisogna attendere la 5830 ), però siamo in ambito mobile quindi va bè

ZetaGemini
07-01-2010, 15:13
se è come la 4870 mobile non la vedremo mai.

se poi fa la stessa fine come per i chip 5870 saranno disponibili in volumi tra 10 anni :D

ghiltanas
07-01-2010, 15:32
asus ha già annunciato un modello che dovrebbe montarla:

http://www.hwupgrade.it/news/portatili/nuovi-notebook-asus-dal-ces-2010_31203.html ;)

Elrim
07-01-2010, 15:40
mah, non sarà un rebrand alla Nvidia ma il risultato è lo stesso, rimangono inadeguate a spingere le Dx11. Ci vorrà un bel po'prima di vedere schede decenti che valgano i soldi spesi sui notebook

marco XP2400+
07-01-2010, 16:39
mah, non sarà un rebrand alla Nvidia ma il risultato è lo stesso, rimangono inadeguate a spingere le Dx11. Ci vorrà un bel po'prima di vedere schede decenti che valgano i soldi spesi sui notebook

e vabbhè sempre di notebook stiamo parlando, poi magari tra un 10 mesi arriva un nuovo processo produttivo....

Newbo
07-01-2010, 16:50
imho giocare a 1920x1200 su un 17 pollici per di più odiosamente lucido ( ormai sono tutti così) è assurdo....se proprio dovete prendere un super-notebook da 2-3 mila euro lasciate la risolux base a 900p....così giocate a dettagli alti anche in dx11 tanto su un 17 pollici 900p o 1200p è la stessa cosa....gioco da oltre 25 anni;)

gr@z!
07-01-2010, 17:50
Ma che c'entra, era un discorso teorico. Serviva per far capire il contesto. Una 4850 ha il bus a 256 bit....bello no ? No perché ha le memorie a 2 Ghz.
Era per dire che è inutile prendere la sola ampiezza di bus come metro di paragone. Bisogna fare un discorso più generale sulla bandwidth complessiva e se questa possa essere o meno saturata della GPU.

esatto.

ghiltanas
07-01-2010, 17:56
mah, non sarà un rebrand alla Nvidia ma il risultato è lo stesso, rimangono inadeguate a spingere le Dx11. Ci vorrà un bel po'prima di vedere schede decenti che valgano i soldi spesi sui notebook

con quest'approccio forse nn arriveranno mai...pensare sarebbe cosi logico esemplice realizzare un box esterno in cui poter mettere una scheda video discreta (desktop), ma si sa, soluzioni intelligenti e interessi delle major raramente vanno d'accordo :rolleyes: :muro:

Mercuri0
07-01-2010, 18:36
E così pare che la 5800 mobile in realtà sarà simile ad una HD 5770 desktop...mi aspettavo meglio, alla fine non differiranno molto dalla Mobility Radeon HD 4870.

Le bontà delle schede per portatili si misura in quant'è la dimensione minima dello chassis che le deve ospitare.

Del resto una GPU di fascia alta per fisso consuma da sola quanto tre portatili interi sparati al massimo, o giù di li.

Futura12
07-01-2010, 19:10
Non male la fascia media per i portatili abbordabili.
Le soluzioni top di gamma per giocare su un notebook hanno sempre fatto cagare al confronto con le desktop,dopotutto è normale..dove mettono il tutto,i consumi,il calore?
E in ogni caso queste GPU non sono male per niente,molto meglio delle Nvidia in ogni fascia di prezzo.

Futura12
07-01-2010, 19:12
mah, non sarà un rebrand alla Nvidia ma il risultato è lo stesso, rimangono inadeguate a spingere le Dx11. Ci vorrà un bel po'prima di vedere schede decenti che valgano i soldi spesi sui notebook

Si vabbè renditi conto di che stai parlando? Directx 11 inadeguate? ma perchè dove stanno i giochi DX11? io non li vedo..e come me nessun'altro.

cionci
07-01-2010, 19:13
con quest'approccio forse nn arriveranno mai...pensare sarebbe cosi logico esemplice realizzare un box esterno in cui poter mettere una scheda video discreta (desktop), ma si sa, soluzioni intelligenti e interessi delle major raramente vanno d'accordo :rolleyes: :muro:
Sarebbe la soluzione più logica. Tra l'altro una tecnologia di questo tipo è già stata realizzata da AMD, però ha rpeso davvero poco piede.

noxycompany
07-01-2010, 19:23
con quest'approccio forse nn arriveranno mai...pensare sarebbe cosi logico esemplice realizzare un box esterno in cui poter mettere una scheda video discreta (desktop), ma si sa, soluzioni intelligenti e interessi delle major raramente vanno d'accordo :rolleyes: :muro:

bhe tieni conto che molti utenti non usano il poratile per giocare e una soluzione del genere credo possa essere davvero di nikkia..oltretutto non credo sia così semplice perchè connessioni in grado di gestire tali bandwich non ce ne sono (a meno di non inventarene) e comunque a che prezzo?

Elrim
07-01-2010, 20:29
Si vabbè renditi conto di che stai parlando? Directx 11 inadeguate? ma perchè dove stanno i giochi DX11? io non li vedo..e come me nessun'altro.

Tra 6 mesi si cominceranno a vedere, sicuramente non nativi ma col supporto a features Dx11. Sempre da vedere se si distinguono dalla Dx9 e Dx10, certo, Dirt2 docet.
Ma perchè pagare così tanto una scheda "top di gamma" su notebook quando in realtà top di gamma non è? Nessuno pretende schede come le 5900 (lì sì che si capirebbero i problemi relativi a consumi e calore), ma almeno qualcosa che eguagli una 5850 desktop mi sembra il minimo per il top di gamma notebook. E questa scheda sembra molto lontana dalle prestazioni di una 5850, lasciamo stare una 5870...

cionci
07-01-2010, 20:36
ma almeno qualcosa che eguagli una 5850 desktop mi sembra il minimo per il top di gamma notebook. E questa scheda sembra molto lontana dalle prestazioni di una 5850, lasciamo stare una 5870...
Ti ricordo che consuma 170 Watt.

marco XP2400+
07-01-2010, 20:40
Ti ricordo che consuma 170 Watt.
uhauuuu solo 170 watt e per un portatile che vuoi che sia heheheh

ilratman
07-01-2010, 20:51
Ti ricordo che consuma 170 Watt.

non ne consuma neanche 130W realmente!

cionci
07-01-2010, 20:57
non ne consuma neanche 130W realmente!
Non si può progettare un computer con il consumo medio, ma va progettato con il consumo di picco.

Elrim
07-01-2010, 21:02
stiamo parlando di notebook, non di netbook. Non mi interessa se consuma 400W e la batteria dura 15 min, tanto sarà sempre alimentato, m'interessa che sia facilmente trasportabile e performante. Se voglio un robo che giri 8 ore con la sola batteria mi oriento altrove, di certo non al top di gamma prestazionale.

Mercuri0
07-01-2010, 21:41
stiamo parlando di notebook, non di netbook. Non mi interessa se consuma 400W e la batteria dura 15 min, tanto sarà sempre alimentato, m'interessa che sia facilmente trasportabile e performante. Se voglio un robo che giri 8 ore con la sola batteria mi oriento altrove, di certo
non al top di gamma prestazionale.


Hai presente una stufa da 400watt? Un sistema elettronico che consuma 400watt è *esattamente equivalente* come produzione di calore a una stufa da 400watt.

E tu prova a mettere una stufa da 400watt in una scatola di plastica "facilmente trasportabile", e dimmi cosa succede :D

Non è solo un problema di consumi, ma anche e sopratutto di dissipazione termica!

p.s. se 400watt era per esagerare, ti invito a toccare una lampadina (tradizionale) da 100W ^^''

Mercuri0
07-01-2010, 21:46
non ne consuma neanche 130W realmente!
Il budget di potenza per una GPU da portatile mi sembra fosse dai 15watt ai 25-30 a secondo del fattore di forma del notebook. Massimi, non reali.

Ragazzuoli la differenza di potenza a disposizione è *enorme*. Per questo anche se le schede per piccì ormai sono potenti a sfare, ancora c'è margine per migliorare quelle per portatili.

Come dire a nvidia & ati: "Sapete fare le schedozze Ultra Potenti XXX da 250watt? Bravi, l'abbiamo visto. Adesso mettetele in un 13'' " :D

Questa è la vera frontiera tecnologica.

ilratman
07-01-2010, 21:54
Non si può progettare un computer con il consumo medio, ma va progettato con il consumo di picco.

il problema è che i valori che ha fornito ati sono esagerati per la 5850 perché basati sulla 5870 ma le frequenze sono molto inferiori ha meno streams e la tensione di alimentazione è il 10% inferiore per cui in realtà il consumo estremo, non medio, della 5850 è circa 130w e probabilmente anche quello della 5870 e inferiore ai 188w dichiarati.
Saprò dire meglio quando mi arriverà ma non ho dubbio che riuscirò a tenerla passiva come adesso faccio con la 8800gt amp.
Che poi se vogliamo dirla tutta nvidia ha la quadro fx3800m basata su g92b con le stesse frequenze della gts250 ed è data per 100w eppure e nel precision m6500 e quindi non mi stupirei di una vera 5850.

Pier2204
07-01-2010, 21:56
stiamo parlando di notebook, non di netbook. Non mi interessa se consuma 400W e la batteria dura 15 min, tanto sarà sempre alimentato, m'interessa che sia facilmente trasportabile e performante. Se voglio un robo che giri 8 ore con la sola batteria mi oriento altrove, di certo non al top di gamma prestazionale.

Si sta privilegiando il risparmio energetico e l'aumento dell'autonomia, sacrificando un pò di potenza elaborativa, perchè il 90% del mercato richiede questo. Il restante 10% che vuole soluzioni estreme o esoteriche devono considerare altro sacrificando autonomia e spendendo cifre folli.

Personalmente non rinuncerei mai al desktop per giocare, a 1500 euro mi faccio un PC superpompato dove non ha problemi praticamente con niente, mai ci installerei un flight simulator su un portatile, sia per questioni ergonomiche che di coinvolgimento, vederlo a 24 pollici su un desktop è tutt'altra cosa che su un 15 o 17 pollici, se poi devo fare del lanparty mi accontento di giocare a risoluzioni adatte per uno schermo di un Notebook.
Per me.

ghiltanas
07-01-2010, 23:42
Sarebbe la soluzione più logica. Tra l'altro una tecnologia di questo tipo è già stata realizzata da AMD, però ha rpeso davvero poco piede.

si mi ricordo quella soluzione, ma aveva una grossa pecca se nn sbaglio: nasceva con una vga e nn potevi cambiarla, in pratica era una cosa inutile. NN era propriamente un box esterno in grado di supportare qualunque scheda (se nn ricordo male).
Cmq si è finita nel dimenticatoio :(

ghiltanas
07-01-2010, 23:49
bhe tieni conto che molti utenti non usano il poratile per giocare e una soluzione del genere credo possa essere davvero di nikkia..oltretutto non credo sia così semplice perchè connessioni in grado di gestire tali bandwich non ce ne sono (a meno di non inventarene) e comunque a che prezzo?

mica tanto di nicchia sai...se la cosa funzionasse bene e con un prezzo abbordabile,diverse persone imho ci farebbero un pensierino: quando vuoi giocare prendi il box con la vga e giochi, se nn vuoi giocare o devi andare da qualche parte usi una scheda video integrata che va benissimo; quindi diventerebbe una soluzione molto pratica.
La connessione mmm, mi sa servirebbe della fibra ottica

Futura12
08-01-2010, 00:01
Tra 6 mesi si cominceranno a vedere, sicuramente non nativi ma col supporto a features Dx11. Sempre da vedere se si distinguono dalla Dx9 e Dx10, certo, Dirt2 docet.
Ma perchè pagare così tanto una scheda "top di gamma" su notebook quando in realtà top di gamma non è? Nessuno pretende schede come le 5900 (lì sì che si capirebbero i problemi relativi a consumi e calore), ma almeno qualcosa che eguagli una 5850 desktop mi sembra il minimo per il top di gamma notebook. E questa scheda sembra molto lontana dalle prestazioni di una 5850, lasciamo stare una 5870...

Infatti,chi se la compra..per me è proprio sbagliato il concetto di giocare sui notebook,ma capisco che per alcuni è una necessità.

FabryHw
08-01-2010, 00:53
stiamo parlando di notebook, non di netbook. Non mi interessa se consuma 400W e la batteria dura 15 min, tanto sarà sempre alimentato, m'interessa che sia facilmente trasportabile e performante. Se voglio un robo che giri 8 ore con la sola batteria mi oriento altrove, di certo non al top di gamma prestazionale.

E magari non ti interessa neanche se può restare acceso solo 10 min consecutivi a full load.
Ma non perché finisce la batteria ma perché non riesce a dissipare e basterebbero pochi minuti per farlo andare in protezione termica (come alcuni vecchi portatili P4, mal progettati, che se usati al 100% di potenza si spegnevano di colpo dopo poco).

Cmq penso che potevano spingersi di più se volevano. Magari non ai consumi di una 5870 ma sicuramente potevano salire (i notebook con SLI di NVidia penso abbiano un comparto video da 150W).

Elrim
08-01-2010, 02:47
sì, ho avuto anche un P4 3,2 Ghz portatile ma stava tranquillo sugli 85-90 gradi senza spegnersi :D sono lontani i tempi dei P4, per fortuna.
Che studino un raffredamento a liquido per portatili, un scocca piena di ventole e prese d'aria, un dissipatore esterno da collegare... insomma qualcosa che permetta di portarsi in valigietta un computer con le palle.
Tra 10 anni forse...

Baboo85
08-01-2010, 09:41
A marzo che vado negli USA, se proprio non un portatile con la 5xxx, mi prendo a niente uno con una 4xxx e vado a casa contento :D

*Caos*
08-01-2010, 09:42
wow quindi fra un paio d'anni vedremo le 5800 montate su un nb?

se è come la 4870 mobile non la vedremo mai.

se poi fa la stessa fine come per i chip 5870 saranno disponibili in volumi tra 10 anni :D

Santech ha già annunciato che verranno montati sui loro N56 (assieme alle gts 360m che tra l'altro sembrano avere un prezzo più interessante).

cionci
08-01-2010, 10:10
La connessione mmm, mi sa servirebbe della fibra ottica
No, direi che basti un PCI-E 8x esterno, così com'era nella soluzione AMD.

FabryHw
08-01-2010, 10:44
sì, ho avuto anche un P4 3,2 Ghz portatile ma stava tranquillo sugli 85-90 gradi senza spegnersi :D sono lontani i tempi dei P4, per fortuna.
Che studino un raffredamento a liquido per portatili, un scocca piena di ventole e prese d'aria, un dissipatore esterno da collegare... insomma qualcosa che permetta di portarsi in valigietta un computer con le palle.
Tra 10 anni forse...

Beh ma se non te frega nulla della trasportabilità, del rumore emesso, del peso, del funziomento a batteria, ...ecc allora che te ne fai di un notebook ?

Prenditi un case desktop attaccaci una maniglia e poi aggiungici un monitor LCD di medie dimensioni (al max 22" ma meglio se nella fascia 16-20") ed hai quello che vuoi senza aspettare 10 anni :D

Fare un desktop altamente trasportabile (ma non come un notebook ovviam.) non ci vuole molto.
Volendo penso che si possa montare anche dentro una valigetta 24 ore (di quelle medio grosse, non certo le slim) :D

WarDuck
08-01-2010, 11:29
Io credo che al livello della 5770 andrà bene questa scheda, considerate che in genere verrà usata su monitor da 15-17" e che in genere questi non hanno risoluzioni così alte da richiedere troppa potenza.

Poi ovviamente dipende dai giochi, ma credo che se io riesco a giocare con una X1900XT a 1400x900 figurarsi con una scheda che dovrebbe andare il triplo della mia (su un notebook per altro).

Si poi c'è chi vuole sempre il massimo :D.

ghiltanas
08-01-2010, 11:53
No, direi che basti un PCI-E 8x esterno, così com'era nella soluzione AMD.

mi sa che limiterebbe un pò...

cionci
08-01-2010, 12:12
mi sa che limiterebbe un pò...
Cosa limiterebbe un PCI-E 8x ?

Baboo85
08-01-2010, 12:25
Poi ovviamente dipende dai giochi, ma credo che se io riesco a giocare con una X1900XT a 1400x900 figurarsi con una scheda che dovrebbe andare il triplo della mia (su un notebook per altro).

Ma una 5770 mobile e' diversa da una 5770 desktop, va molto meno...

Pier2204
08-01-2010, 12:28
Per me hanno fatto bene.

Quando ho un Notebook che mi garantisce un'ottima autonomia, portatile, mi permette di giocare sfruttando le DX11, lo posso usare dove voglio, in treno, dagli amici, sul lavoro, mi sembra una soluzione versatile, adatta ad ogni scopo.

Un 17 pollici ha un basso numero di pixel, facilmente gestibili da questi chip, quindi per me si può giocare anche con giochi pesanti.

Poi se vuoi il massimo hai solo 2 strade, spendi cifre per Notebook con autonomia zero, in treno parti da Bologna e quando sei a Faenza il computer è gia spento :D , oppure ti fai un desktop.

ilratman
08-01-2010, 12:38
Per me hanno fatto bene.

Quando ho un Notebook che mi garantisce un'ottima autonomia, portatile, mi permette di giocare sfruttando le DX11, lo posso usare dove voglio, in treno, dagli amici, sul lavoro, mi sembra una soluzione versatile, adatta ad ogni scopo.

Un 17 pollici ha un basso numero di pixel, facilmente gestibili da questi chip, quindi per me si può giocare anche con giochi pesanti.

Poi se vuoi il massimo hai solo 2 strade, spendi cifre per Notebook con autonomia zero, in treno parti da Bologna e quando sei a Faenza il computer è gia spento :D , oppure ti fai un desktop.

non so che 17" tu abbia avuto ma se consideri basso numero di pixel un 1920x1200 per alto cosa intendi? :)

cionci
08-01-2010, 12:45
non so che 17" tu abbia avuto ma se consideri basso numero di pixel un 1920x1200 per alto cosa intendi? :)
E' una mosca bianca. I 17" wide sui portatili ora sono per la maggior parte 1600x900.

ghiltanas
08-01-2010, 12:46
Cosa limiterebbe un PCI-E 8x ?

le prestazioni, specie con certe schede top di gamma (stai parlando di pci-e nn 2.0 giusto?)

cionci
08-01-2010, 12:48
le prestazioni, specie con certe schede top di gamma (stai parlando di pci-e nn 2.0 giusto?)
Sì, ma quanto puoi perdere...il 10% forse.

marmotta88
08-01-2010, 12:56
Immagino che le 5700-5800 saranno delle mosche bianche nei pc da grande distribuzione, penso che si troverà un modello da 1400€ ogni 2 o 3 negozi.
Spero che la 5650 arrivi in tutti i negozi abbinata ad un I5 al prezzo non superiore a 800€

Sono rimasto male quando ho visto 128 bit di bus nel top di gamma, speravo tanto in un bus almeno a 192bit (anche nella fascia media, ma quando elimineranno il bus a 64bit, non è d'epoca ormai?).

Al più mi sarebbe interessata una 5570m con bus da 128bit venduta su un 15,6 a 700€.

OT:
a) Ma da GPU-Z come si fa a vedere il numero di stream processor?
b) Spesso vedo nei commenti indicate i prezzi con la sigla &8364, cosa vuol dire?

Ciao e grazie a chi mi risponderà

UP, qualcuno mi può illuminare?

Pier2204
08-01-2010, 13:14
non so che 17" tu abbia avuto ma se consideri basso numero di pixel un 1920x1200 per alto cosa intendi? :)

Quella risoluzione su un 17 pollici ... a 49 anni... be si potrebbe essere un'idea, al posto degli occhialini 3D posso usare 2 fondi di bottiglia, uno del vino rosso e l'altro del bianchello :asd:

1920 X 1200 è già troppo sul mio 24 che ho in casa

Baboo85
08-01-2010, 13:22
E magari non ti interessa neanche se può restare acceso solo 10 min consecutivi a full load.
Ma non perché finisce la batteria ma perché non riesce a dissipare e basterebbero pochi minuti per farlo andare in protezione termica (come alcuni vecchi portatili P4, mal progettati, che se usati al 100% di potenza si spegnevano di colpo dopo poco).

Una volta. Adesso, a meno di guasti o di polvere eccessiva che fa da tappo, i notebook di adesso non si scaldano...

noxycompany
08-01-2010, 13:45
UP, qualcuno mi può illuminare?

quella sigla è un errore di decodifica html, è infati il codice del simbolo euro, epr quanto riguarda gpuz, basta guardare nella prima pagina!

Futura12
08-01-2010, 14:21
sì, ho avuto anche un P4 3,2 Ghz portatile ma stava tranquillo sugli 85-90 gradi senza spegnersi :D sono lontani i tempi dei P4, per fortuna.
Che studino un raffredamento a liquido per portatili, un scocca piena di ventole e prese d'aria, un dissipatore esterno da collegare... insomma qualcosa che permetta di portarsi in valigietta un computer con le palle.
Tra 10 anni forse...

si e quanto era alto?
Ho visto pc dotati di Pentium 4 desktop (che fra l'altro è sempre stato un processore che non valeva un cazzo e costava un botto)a differenza di modelli simili..erano alti come minino 3-4cm in più dati dal dissipatore.
Una cosa orribile,se quello è un portatile...il mio fisso è più portatile.

Baboo85
08-01-2010, 14:50
si e quanto era alto?
Ho visto pc dotati di Pentium 4 desktop (che fra l'altro è sempre stato un processore che non valeva un cazzo e costava un botto)a differenza di modelli simili..erano alti come minino 3-4cm in più dati dal dissipatore.
Una cosa orribile,se quello è un portatile...il mio fisso è più portatile.

Il mio vecchio HP col pentium 4 (inutile cambiare processore anche con uno con lo stesso FSB: non li accetta mica :( eppure funzionano) e' spesso 3,5 / 4 cm...

Adesso con lo stesso spessore hai pero' un pc spaziale, il cui dissipatore gigante e multiventola e' pero' dato dalla scheda video...

leoneazzurro
09-01-2010, 14:04
Al CES ci sono stati diversi annunci a proposito della serie Mobility 5000, tra cui MSI che ha mostrato la sua linea con modelli (GX640/740 e serie GE) basati sulla serie 5800 (non si conosce ancora la versione della VGA), Acer pure ha annunciato un modello basato su 5650 (e giá testato su un sito tedesco) mentre pure Dell ed Alienware si vocifera utilizzeranno le GPU ATi sulle prossime versioni dello Studio XPS 16 e dello M17x. ASUS pure utilizzerá la 5870 Mobile sul modello G73JH e le 5730 sui modelli N61Ja/Jq.

Baboo85
09-01-2010, 14:09
Al CES ci sono stati diversi annunci a proposito della serie Mobility 5000, tra cui MSI che ha mostrato la sua linea con modelli basati sulla serie 5800 (non si conosce ancora il modello), Acer pure ha annunciato un modello basato su 5650 (e giá testato su un sito tedesco) mentre pure Dell ed Alienware si vocifera utilizzeranno le GPU ATi sulle prossime versioni dello Studio XPS 16 e dello M17x. ASUS pure utilizzerá la 5870 Mobile sul modello G73JH e le 5730 sui modelli N61Ja/Jq.

Evvai :) adesso mi manca solo da vedere cosa tira fuori nvidia (spero non le GT3xx, di cui la GT330 so che e' la GT240 con frequenze piu' alte :doh:) e potro' scegliermi con calma il nuovo notebook desktop replacement :)

Il meglio sarebbe un Core i5 con una di queste schede video che si disattiva durante l'uso normale per sfruttare quella del Core i5 (sempre che sia della famiglia con la GPU integrata ovviamente)...

leoneazzurro
09-01-2010, 14:20
Nvidia pare abbia mostrato la G335M, con 72 SP e Dx10.1, ma poco altro. Secondo i rumors si parla comunque di un EOL per la serie GTX280M e di un modello piú prestazionale per l´high end, ma non si sa ancora se sará basato sul G92 con clock piú elevati o su un nuovo chip.

noxycompany
09-01-2010, 17:52
Nvidia pare abbia mostrato la G335M, con 72 SP e Dx10.1, ma poco altro. Secondo i rumors si parla comunque di un EOL per la serie GTX280M e di un modello piú prestazionale per l´high end, ma non si sa ancora se sará basato sul G92 con clock piú elevati o su un nuovo chip.

ancora un rebrand? dovranno pur aver qualcosa di nuovo da proporre nel breve..atanno perdendo davvero quote di mercato in questo periodo..

Futura12
09-01-2010, 17:59
ancora un rebrand? dovranno pur aver qualcosa di nuovo da proporre nel breve..atanno perdendo davvero quote di mercato in questo periodo..

Meglio cosi.
Cosi si danno una svegliata,hanno rotto con schede finte rimachiate duecento volte.
C'è gente che ancora compra le GTS 250 pensando che sia schede della serie GT200,non sapendo che si tratta ancora del vecchio G92.
Per i portatili quasi sicuro continueranno a rimarchiare,Fermi ancora non è uscito per desktop....per un suo derivato per notebook ci vorranno almeno 10 mesi.

Elrim
09-01-2010, 19:10
ancora un rebrand? dovranno pur aver qualcosa di nuovo da proporre nel breve..atanno perdendo davvero quote di mercato in questo periodo..

se Fermi è un chipset troppo costoso per scalare in fascia bassa/notebook non ha senso proporlo. ATI non rebrandizza ma il risultato è lo stesso se si parla di notebook, e un g92 pompato ha prestazioni in grado di eguagliare questa proposta ATI che dovrebbe essere molto vicina ad una 5770. Quindi è praticamente sicuro il rebrand.

noxycompany
09-01-2010, 19:13
Meglio cosi.
Cosi si danno una svegliata,hanno rotto con schede finte rimachiate duecento volte.
C'è gente che ancora compra le GTS 250 pensando che sia schede della serie GT200,non sapendo che si tratta ancora del vecchio G92.
Per i portatili quasi sicuro continueranno a rimarchiare,Fermi ancora non è uscito per desktop....per un suo derivato per notebook ci vorranno almeno 10 mesi.

bhe..nel frattempo speriamo che ati ci dia sotto con i nuovi chip mobile..anche se immagino che nvidia continuerà a rimarchiare, così come negli ultimi 3 anni..

*Caos*
09-01-2010, 19:32
Meglio cosi.
Cosi si danno una svegliata,hanno rotto con schede finte rimachiate duecento volte.
C'è gente che ancora compra le GTS 250 pensando che sia schede della serie GT200,non sapendo che si tratta ancora del vecchio G92.
Per i portatili quasi sicuro continueranno a rimarchiare,Fermi ancora non è uscito per desktop....per un suo derivato per notebook ci vorranno almeno 10 mesi.

Cioè fammi capire, tu per avere un chip con un'architettura più recente, preferisci pagare di più, avere meno autonomia, avere una GPU che scalda di più e ha le stesse prestazioni? :mbe:

A me fottenasega del chip che montano o come si vogliono chiamare le loro VGA, l'importante sono i risultati.

FabryHw
09-01-2010, 23:38
Quella risoluzione su un 17 pollici ... a 49 anni... be si potrebbe essere un'idea, al posto degli occhialini 3D posso usare 2 fondi di bottiglia, uno del vino rosso e l'altro del bianchello :asd:

1920 X 1200 è già troppo sul mio 24 che ho in casa

Veramente c'è chi la usa pure su 15.4" dove è davvero densa (mi pare sia attorno a 150dpi) ed ad alcuni può dare fastidio.

Anche sul 17" pollici sembra piccola la prima volta che la vedi ma in 3 o 4 giorni ti abbitui subito.
Però se hai problemi di vista è un altro discorso.

In più se ha il 24" a casa e ci colleghi il portatile (forse) è bruttissimo dover ogni volta cambiare risoluzione quando passi dal monitor interno a quello esterno e viceversa
O ti prendi (se esiste) un 24" 1440x900 o vai di 1920x1200 anche sul 17" pollici

ilratman
09-01-2010, 23:41
Veramente c'è chi la usa pure su 15.4" dove è davvero densa (mi pare sia attorno a 150dpi) ed ad alcuni può dare fastidio.

Anche sul 17" pollici sembra piccola la prima volta che la vedi ma in 3 o 4gg giorni ti abbitui subito.
Poi se hai problemi di vista è un altro discorso.

eccomi! :D

FabryHw
09-01-2010, 23:50
Cioè fammi capire, tu per avere un chip con un'architettura più recente, preferisci pagare di più, avere meno autonomia, avere una GPU che scalda di più e ha le stesse prestazioni? :mbe:

A me fottenasega del chip che montano o come si vogliono chiamare le loro VGA, l'importante sono i risultati.

Ti riferisci a G92B vs Fermi Mobile o a G92B vs ATI 5x00 ?

Nel secondo caso dubito proprio che NVidia con la serie vecchia rimarchiata riesca ad ottenere le prestazioni di ATI 5x00M, consumando pure di meno.
E pure a prezzi dubito NVidia venderà i suoi chip a poco (e meno cari di AMD).

Forse riusciranno a tenere lo scettro delle prestazioni a causa di driver migliori e schede overclockate (per essere delle mobile) ma sicuramente non scaldando di meno e costando di meno.

*Caos*
10-01-2010, 00:15
Ti riferisci a G92B vs Fermi Mobile o a G92B vs ATI 5x00 ?

Nel secondo caso dubito proprio che NVidia con la serie vecchia rimarchiata riesca ad ottenere le prestazioni di ATI 5x00M, consumando pure di meno.
E pure a prezzi dubito NVidia venderà i suoi chip a poco (e meno cari di AMD).

Forse riusciranno a tenere lo scettro delle prestazioni a causa di driver migliori e schede overclockate (per essere delle mobile) ma sicuramente non scaldando di meno e costando di meno.

La prima.
E per inciso, come già detto in precedenza, un G92b a 55nm (o forse addirittura a 40nm) può ancora tener testa a una 5770 downclockata.
L'unica cosa che non capisco è come faccia la 5870 (che è sostanzialmente una 5770) ad avere un TDP dichiarato di 50W (http://www.amd.com/us/products/notebook/graphics/ati-mobility-hd-5800/Pages/hd-5870-specs.aspx) quando la 5770 ne dichiara 108W (http://www.amd.com/us/products/desktop/graphics/ati-radeon-hd-5000/hd-5770/Pages/ati-radeon-hd-5770-specifications.aspx).

FabryHw
10-01-2010, 00:52
La prima.
E per inciso, come già detto in precedenza, un G92b a 55nm (o forse addirittura a 40nm) può ancora tener testa a una 5770 downclockata.
L'unica cosa che non capisco è come faccia la 5870 (che è sostanzialmente una 5770) ad avere un TDP dichiarato di 50W (http://www.amd.com/us/products/notebook/graphics/ati-mobility-hd-5800/Pages/hd-5870-specs.aspx) quando la 5770 ne dichiara 108W (http://www.amd.com/us/products/desktop/graphics/ati-radeon-hd-5000/hd-5770/Pages/ati-radeon-hd-5770-specifications.aspx).

Perché (prendendo per buoni i valori dichiarati) una riduzione di pochi MHz è una sensibile riduzione di TDP.

Guarda la nuova FX3800M (G92) di Nvidia che ha un TDP di 100W mentre la FX3700M (sempre G92) di soli 75W.

Le due schede hanno entrambe 1GB di ram, entrambe 128 shaders e le uniche differenze tra le due sono:

La FX3800M è dichiarata DX10.1 e non solo DX 10.0. Poi cambia anche la versione di PowerMizer (9.0 e 8.0 rispettivamente)
La FX3800M è a 55nm, la FX3700M non è chiaro, molti siti la danno per 65nm (quindi dovrebbe scaldare di più a pari clock).
La FX3700M ha clock più bassi 550/800MHz contro 675/1000MHz


Se fosse vero che la FX3700M è ancora a 65nm, allora quel overclock del 22-25% della FX3800M rispetto alla FX3700M sarebbe costato ben più di 25W (pari già ad un 33% di calore in più) a parità di processo..
Quindi a pari processo magari togliendo un 25% di clock, ottieni una riduzione del 50% di Watt

Stech1987
10-01-2010, 12:35
Ma che c'entra, era un discorso teorico. Serviva per far capire il contesto. Una 4850 ha il bus a 256 bit....bello no ? No perché ha le memorie a 2 Ghz.
Era per dire che è inutile prendere la sola ampiezza di bus come metro di paragone. Bisogna fare un discorso più generale sulla bandwidth complessiva e se questa possa essere o meno saturata della GPU.

Ah beh, meno male che me l'hai spiegato... :fagiano:
Il tuo discorso è piuttosto ovvio, la mia "lamentela" era in merito al fatto che si è visto che, anche con frequenze maggiori, la RAM delle 5770 (e quindi 5870M) È saturata dalla GPU e fa DI FATTO da collo di bottiglia.

*Caos*
10-01-2010, 12:46
Ah beh, meno male che me l'hai spiegato... :fagiano:
Il tuo discorso è piuttosto ovvio, la mia "lamentela" era in merito al fatto che si è visto che, anche con frequenze maggiori, la RAM delle 5770 (e quindi 5870M) È saturata dalla GPU e fa DI FATTO da collo di bottiglia.

La 5870m ha delle frequenze più basse della 5770 di quasi il 20%. Non credo possa incorrere nello stesso problema della 5770 a meno di overclock.

*Caos*
10-01-2010, 12:49
In più se ha il 24" a casa e ci colleghi il portatile (forse) è bruttissimo dover ogni volta cambiare risoluzione quando passi dal monitor interno a quello esterno e viceversa
O ti prendi (se esiste) un 24" 1440x900 o vai di 1920x1200 anche sul 17" pollici

Non l'avevo vista.
Ormai tutte le schede mobile (ma credo anche le desktop) gestiscono indipendentemente le risoluzioni per le uscite DVI-HDMI da quelle del monitor "integrato".

Baboo85
10-01-2010, 14:22
Ah beh, meno male che me l'hai spiegato... :fagiano:
Il tuo discorso è piuttosto ovvio, la mia "lamentela" era in merito al fatto che si è visto che, anche con frequenze maggiori, la RAM delle 5770 (e quindi 5870M) È saturata dalla GPU e fa DI FATTO da collo di bottiglia.

No no spiegate bene questa cosa per favore... Le 5770 (per desktop se non ho capito male) hanno la memoria che fa da collo di bottiglia? Come mai? E se si overcloccassero le memorie? Stesso discorso per le 5870M?

Axoduss
10-01-2010, 14:43
si sa quando ci saranno i primi portatili con queste GPU?

PS: ma non è tanta la differenza tra 80sp per le 54xx e i 400 delle 56xx?

grazie

*Caos*
10-01-2010, 14:48
si sa quando ci saranno i primi portatili con queste GPU?

PS: ma non è tanta la differenza tra 80sp per le 54xx e i 400 delle 56xx?

grazie

Fine Gennaio, inizio Febbraio.

Mercuri0
10-01-2010, 14:50
La prima.
E per inciso, come già detto in precedenza, un G92b a 55nm (o forse addirittura a 40nm) può ancora tener testa a una 5770 downclockata.
L'unica cosa che non capisco è come faccia la 5870 (che è sostanzialmente una 5770) ad avere un TDP dichiarato di 50W (http://www.amd.com/us/products/notebook/graphics/ati-mobility-hd-5800/Pages/hd-5870-specs.aspx) quando la 5770 ne dichiara 108W (http://www.amd.com/us/products/desktop/graphics/ati-radeon-hd-5000/hd-5770/Pages/ati-radeon-hd-5770-specifications.aspx).

Oltre la frequenza, conta anche la tensione di alimentazione.
I chip per portatili sono sicuramente quelli "riusciti meglio", che possono funzionare a tensioni di alimentazione minori.

La formula canonica prevede che la potenza dissipata aumenti con il quadrato della tensione di alimentazione.

Mercuri0
10-01-2010, 14:54
No no spiegate bene questa cosa per favore... Le 5770 (per desktop se non ho capito male) hanno la memoria che fa da collo di bottiglia? Come mai? E se si overcloccassero le memorie? Stesso discorso per le 5870M?
Per qualsiasi sistema elettronico oggigiorno se scommetti che la memoria fa da collo di bottiglia, il più ci prendi.

E le architetture dei chip cercano in qualche modo di compensare questo problema, che nasce dal fatto che per raggiungere la memoria i segnali elettrici devono uscire fuori dal chip, e quindi hanno una velocità più limitata.

Ah beh, meno male che me l'hai spiegato... :fagiano:
Il tuo discorso è piuttosto ovvio, la mia "lamentela" era in merito al fatto che si è visto che, anche con frequenze maggiori, la RAM delle 5770 (e quindi 5870M) È saturata dalla GPU e fa DI FATTO da collo di bottiglia.
Probabilmente alcuni produttori di notebook sceglieranno memorie lente per risparmiare... quindi bisognerà stare attenti al tipo di memoria montato per la gpu. Prevedo grandi inculate per gli utenti.

Dal punto di vista invece di ATI penso invece che le frequenze delle GPU siano scelte già abbastanza lente in modo che la memoria non le penalizzi tanto. Questo perché per un notebook non è che fai funzionare la GPU a millemila hertz se poi è rallentata da fuori... tanto vale rallentarla per poterla infilare in un notebook più piccolo.

ilratman
10-01-2010, 14:58
Oltre la frequenza, conta anche la tensione di alimentazione.
I chip per portatili sono sicuramente quelli "riusciti meglio", che possono funzionare a tensioni di alimentazione minori.

La formula canonica prevede che la potenza dissipata aumenti con il quadrato della tensione di alimentazione.

io sapevo che di solito è con il quadrato della frequenza e con la tensione sapevo che era lineare. ???

Mercuri0
10-01-2010, 15:01
Cioè fammi capire, tu per avere un chip con un'architettura più recente, preferisci pagare di più, avere meno autonomia, avere una GPU che scalda di più e ha le stesse prestazioni? :mbe:

Scus caos ma di questi tempi se "l'architettura più recente" è meno efficiente di quella precedente, allora è da buttare, altroché. ;)

Uno assume che l'architettura nuova sia più efficiente. Altrimenti che architettura nuova sarebbe?

Se non ci fosse il limite ai consumi (cioè potenza dissipata) a fare GPU sarebbero bravi tutti... :D

Mercuri0
10-01-2010, 15:06
io sapevo che di solito è con il quadrato della frequenza e con la tensione sapevo che era lineare. ???
Nah, il viceversa, anche se non sono sicuro che la formula sia ancora del tutto valida con le tecnologie spinte di questi tempi.

E poi attenti che il TDP non indica *la potenza che la scheda consuma* e oggi neanche *la potenza massima*.

Il TDP indica *quanto deve essere grande la ventola!!*. Infatti sta per "thermal design power".

Perché c'è differenza? Perché magari, ad essere cattivi, una GPU o CPU moderna nel caso superi il suo TDP durante il funzionamento, potrebbe downloccarsi per raffreddarsi. (!!!)

Sulle cpu dei portatili a volte capita. Non sono sicuro possano funzionare alla frequenza massima in ogni caso in ogni modello... Sopratutto d'estate...

*Caos*
10-01-2010, 15:36
Scus caos ma di questi tempi se "l'architettura più recente" è meno efficiente di quella precedente, allora è da buttare, altroché. ;)

Uno assume che l'architettura nuova sia più efficiente. Altrimenti che architettura nuova sarebbe?

Se non ci fosse il limite ai consumi (cioè potenza dissipata) a fare GPU sarebbero bravi tutti... :D

Non mi sembra di aver detto il contrario.
Il GT200 (come pure l'RV770) si è rivelato inadatto nell'ambito mobile dove c'è un limite imposto in termini di budget termico, di dimensioni e consumi.
La fortuna di Nvidia è stata che ATi ha ignorato la fascia consumer e enthusiast in ambito mobile (o forse semplicemente non ci arrivava neanche con l'RV670 che pure aveva consumi molto buoni) e ha potuto vendere e stravendere G92b affinando solo il processo produttivo (65nm, 55nm, 40nm).

E anche così non sono molto convinto che Nvidia abbia intenzione di cambiare strategia. Ribadisco, il gap tra GTS 360m e 5850m secondo me non sarà così alto e la 360 costa 60€ in meno.

Futura12
10-01-2010, 15:39
Cioè fammi capire, tu per avere un chip con un'architettura più recente, preferisci pagare di più, avere meno autonomia, avere una GPU che scalda di più e ha le stesse prestazioni? :mbe:

A me fottenasega del chip che montano o come si vogliono chiamare le loro VGA, l'importante sono i risultati.

Guarda che di solito quando si va avanti...le GPU consumano sempre meno,perchè fatte con processo produttivo ridotto,sopratutto sui notebook.
Quindi non capisco di cosa stai parlando,sono stufo di vedere GPU oramai datate anni ancora in vendita come se fosse una cosa nuova,è una presa in giro.

*Caos*
10-01-2010, 15:45
Guarda che di solito quando si va avanti...le GPU consumano sempre meno,perchè fatte con processo produttivo ridotto,sopratutto sui notebook.
Quindi non capisco di cosa stai parlando,sono stufo di vedere GPU oramai datate anni ancora in vendita come se fosse una cosa nuova,è una presa in giro.

Il processo produttivo era sempre a 65nm al lancio del GT200. Probabilmente il g92b si prestava bene a semplificazioni (riduzioni sp) o forse aveva costi di produzione inferiori e le prestazioni per ambito mobile erano talmente simili che hanno preferito investire sul vecchio.
Dall'altra parte, come già detto, non c'era concorrenza quindi...

yossarian
10-01-2010, 15:54
Non mi sembra di aver detto il contrario.
Il GT200 (come pure l'RV770) si è rivelato inadatto nell'ambito mobile dove c'è un limite imposto in termini di budget termico, di dimensioni e consumi.
La fortuna di Nvidia è stata che ATi ha ignorato la fascia consumer e enthusiast in ambito mobile (o forse semplicemente non ci arrivava neanche con l'RV670 che pure aveva consumi molto buoni) e ha potuto vendere e stravendere G92b affinando solo il processo produttivo (65nm, 55nm, 40nm).

E anche così non sono molto convinto che Nvidia abbia intenzione di cambiare strategia. Ribadisco, il gap tra GTS 360m e 5850m secondo me non sarà così alto e la 360 costa 60€ in meno.

stravendere è una parola grossa

http://www.amd.com/us/press-releases/Pages/amd-takes-market-share-2009aug18.aspx

http://hothardware.com/News/AMD-claims-to-lead-discrete-mobile-GPU-market/

noxycompany
10-01-2010, 15:58
Oltre la frequenza, conta anche la tensione di alimentazione.
I chip per portatili sono sicuramente quelli "riusciti meglio", che possono funzionare a tensioni di alimentazione minori.

La formula canonica prevede che la potenza dissipata aumenti con il quadrato della tensione di alimentazione.

non solo, come hai detto, vanno considerati altri fattori, ad esempio semplice effetto joule.in questo caso il processo produttivo conta parecchio.

*Caos*
10-01-2010, 16:55
stravendere è una parola grossa

http://www.amd.com/us/press-releases/Pages/amd-takes-market-share-2009aug18.aspx

http://hothardware.com/News/AMD-claims-to-lead-discrete-mobile-GPU-market/

Guarda che le VGA mobile basate su G92 e affini sono in commercio dal 2007 :doh:
Altro che stravendere, sono stato pure moderato.

noxycompany
10-01-2010, 17:16
Guarda che le VGA mobile basate su G92 e affini sono in commercio dal 2007 :doh:
Altro che stravendere, sono stato pure moderato.

e il g92 è del 2006...

*Caos*
10-01-2010, 18:36
Edit.

Ho inteso male il post precedente.

FabryHw
10-01-2010, 19:24
Non l'avevo vista.
Ormai tutte le schede mobile (ma credo anche le desktop) gestiscono indipendentemente le risoluzioni per le uscite DVI-HDMI da quelle del monitor "integrato".

Non intendevo che devi cambiare a mano ogni volta risoluzione (ci mancherebbe) dicevo che è brutto per l'utente.

Sei collegato al 24" e quindi lavori a 1920x1200, poi ti scolleghi (perché ti porti via il portatile) e ti ritrovi con una 1440x900 (se va bene, sennò magari solo una 1280x800) e tutte le icone si spostano (ma non ritornano a posto quando risali di risoluzione), ti sembra di aver cambiato computer, ...ecc

Insomma che schifo (per me).
Se possibile monitor esterno e monitor interno devono avere la stessa risoluzione.

Io probabilmente non ho il 30" (da 2560x1600) perché poi se mi abbituo alla risoluzione del 30", la 1920x1200 del portatile sicuramente mi va stretta :D .

cionci
10-01-2010, 19:26
Mi sembra un po' esagerato farsi dei problemi solo per il cambiamento di posizione delle icone :D

noxycompany
11-01-2010, 11:52
Mi sembra un po' esagerato farsi dei problemi solo per il cambiamento di posizione delle icone :D

lol potresti provare ad inchiodarle sullo schermo :asd: :asd:

yossarian
11-01-2010, 13:10
Guarda che le VGA mobile basate su G92 e affini sono in commercio dal 2007 :doh:
Altro che stravendere, sono stato pure moderato.

nVIDIA è in caduta libera nel segmento mobile, e non da ora, e se non cambia strategia sparisce del tutto :p

*Caos*
11-01-2010, 13:51
nVIDIA è in caduta libera nel segmento mobile, e non da ora, e se non cambia strategia sparisce del tutto :p

No, esattamente dal 2009 e non è un mistero per nessuno; ma più per la fascia mainstream e consumer che non per la fascia enthusiast dove ATi fino ad ora non aveva praticamente messo il naso nonostante fosse tecnologicamente più avanti (sopratutto grazie all'XGP).

Ora è da capire il perché di questa scelta:
- non avevano abbastanza fondi per supportare tali soluzioni?
- non credevano ci fosse mercato?
- hanno puntato sull'XGP tralasciando il supporto alle VGA discrete e non sono stati premiati?
- l'RV670 non piaceva ai produttori di notebook?
- Nvidia ci ha messo lo zampino?
- boh

Io propendo per l'ultima ipotesi fatto sta che ho un N48 con una 9800m GT e sto tranquillo con buona pace di chi mi diceva di aspettare le Mobility 4870 :D

Futura12
11-01-2010, 14:21
e il g92 è del 2006...

Il G80 è del 2006....il G92 metà 2007:)

Baboo85
11-01-2010, 14:41
Di qualsiasi anno sia, sappiamo tutti che il G92, dopo il successone della 8800GT, lo stanno spremendo e mettendo ovunque. Ad Nvidia sono rimasti un po' senza idee purtroppo...