PDA

View Full Version : Intel Sandy Bridge: analisi della GPU integrata


Redazione di Hardware Upg
19-01-2011, 15:49
Link all'Articolo: http://www.hwupgrade.it/articoli/cpu/2695/intel-sandy-bridge-analisi-della-gpu-integrata_index.html

Nell'articolo di oggi ci occuperemo della GPU integrata all'interno delle nuove CPU Sandy Bridge di Intel. Avremo così modo di andare ad osservare il livello prestazionale che la rinnovata architettura è in grado di fornire, ma non solo.

Click sul link per visualizzare l'articolo.

ally
19-01-2011, 15:59
...tutti i test di anandtech sulle performance di sandy bridge in quick sync risultano abbondantemente opposti ai vostri...sia in termini tempistici che in termini di output qualitativi per le schede grafiche...

http://images.anandtech.com/graphs/graph4083/35055.png

http://images.anandtech.com/graphs/graph4083/35053.png

http://images.anandtech.com/graphs/graph4083/35054.png

http://www.anandtech.com/show/4083/the-sandy-bridge-review-intel-core-i7-2600k-i5-2500k-core-i3-2100-tested/9#

...dove sta il cruccio?...

Opteranium
19-01-2011, 16:06
x Redazione
nei grafici dell' encoding avete scritto "i5-661" ;)

cmq, se posso, anch' io sono curioso sui risultati. A parte il fatto che anche qui si nota un discreto miglioramento, questo è parecchio inferiore a quanto si legge su altre testate.

boh

Kernel69
19-01-2011, 16:25
La situazione per Windows è più che soddisfacente.
Quella per Linux è assolutamente DISASTROSA: Link (http://www.phoronix.com/scan.php?page=article&item=intel_sandy_breaks&num=1) :cry:

demon77
19-01-2011, 16:32
La situazione per Windows è più che soddisfacente.
Quella per Linux è assolutamente DISASTROSA: Link (http://www.phoronix.com/scan.php?page=article&item=intel_sandy_breaks&num=1) :cry:

Vabbeh dagli tempo, cavolo è uscito ieri!! :) :)


Comunque.. OK che la GPU non è un cannone ma vale quanto una entry level odierna.. però mi da veramente fastidio che con P67 venga esclusa del tutto..

Cavolo ma cosa gli costava mettere uno switch per spegnere la GPU discreta e usare quella integrata se il carico era basso???? :mad: :mad:

Il massimo sarebbe stato poter usare la GPU integrata come unità di calcolo extra in real time: la >GPU discreta per la grafica e quella integrata per il motore fisico dei giochi ad esempio!

uff.. sogni a quantio pare!

pgp
19-01-2011, 16:43
Avrei un solo appunto sull'articolo: perchè non confrontare le nuove GPU di Sandy Bridge con la GeForce 320M, visto che in diversi casi ne sarà la sostituta probabilmente (vedi MacBook Pro 13")?
Sarebbe stato estremamente interessante.


pgp

Elrim
19-01-2011, 16:59
mica male come gpu integrata, AMD e Nvidia dovrebbero alzareun pelo le prestazioni per competere veramente adesso

viper-the-best
19-01-2011, 17:07
senza nulla togliere alla vostra recensione, molto completa ed esauriente, vorrei interrogarmi sul fatto se sia ancora sensato usare 1024x768 come risoluzione per i test.
voglio dire...chi è che usa ancora un monitor del genere? li producono ancora? un utente che adopera un i5 di questa categoria avrà come minimo un 1440x900, o no? questo vale per la vostra come per molte altre testate web...

marmotta88
19-01-2011, 17:12
Avevo letto che metro 2033 era molto pesante e che richiedeva pc molto potenti. Invece qui vedo che parte accettabilmente su una integrata. Ma la 5450 e questa integrata non sono sotto i requisiti minimi?
Me lo chiedo perchè nei requisiti minimi chiede una 8800gt o una gt220.

Scusate per il semi-ot

Lunar Wolf
19-01-2011, 17:13
...tutti i test di anandtech sulle performance di sandy bridge in quick sync risultano abbondantemente opposti ai vostri...sia in termini tempistici che in termini di output qualitativi per le schede grafiche...

http://images.anandtech.com/graphs/graph4083/35055.png

http://images.anandtech.com/graphs/graph4083/35053.png

http://images.anandtech.com/graphs/graph4083/35054.png

http://www.anandtech.com/show/4083/the-sandy-bridge-review-intel-core-i7-2600k-i5-2500k-core-i3-2100-tested/9#

...dove sta il cruccio?...


oltre a questo...in giro diono che ati stream offre piu qualità rispetto al software cuda, qu, come sempre, un altra cosa


piu passano i giorni, meno ci si fida di hwupgrade...mi disp per voi!!!

ciocia
19-01-2011, 17:20
In attesa di un bel confronto con fusion ( anche se il top attuale, E-350, puo' solo competere con la coppia atom+ion2....purtroppo i modelli piu' potenti sono in ritardo...tanto per cambiare )

Nui_Mg
19-01-2011, 17:22
Pure Tom pare essere all'incirca in linea con anandtech:
http://www.tomshw.it/files/2011/01/immagini/28819/cyberlink-mediaespresso_t.png

http://www.tomshw.it/files/2011/01/immagini/28819/arcsoft-mediaconverter_t.png

Sputafuoco Bill
19-01-2011, 17:57
Quick sync è una gran bella cosa, mi chiedo che modello di GPU discreta bisogna usare per avere lo stesso risultato.

AMD HD5450 costa 35 €. Mi chiedo quanto sarebbero costati in meno queste cpu senza la grafica integrata, tanto con P67 non serve.

Nui_Mg
19-01-2011, 18:10
In attesa di un bel confronto con fusion ( anche se il top attuale, E-350, puo' solo competere con la coppia atom+ion2....purtroppo i modelli piu' potenti sono in ritardo...tanto per cambiare )
Amd deve pregare Dio affinché Intel non decida di abbassare i prezzi delle soluzioni mobili Sandy Bridge per competere anche nella fascia medio-bassa dei portatili: le prestazioni di SB per portatili (tutte con HD Graphics 3000 di default) saranno prestazionalmente immensamente superiori (probabilmente tranne per il reparto grafico ad uso games) all'attuale max apu fusion di amd (e-350) pur avendo un tdp max di 1 watt inferiore all'e-350 (17 watt dei SB contro i 18 di e-350) :eek:

unnilennium
19-01-2011, 18:40
bell'articolo,anche se non si capisce la discrepanza con i test delle altre testate.... cmq ste vga,come al solito, raddoppiano la potenza rispetto alle vecchioe intel,e finalmente raggiungono le integrate degli altri produttori.. anche se sul fisso, le hd 2000 saranno anatre zoppe,come al solito.. meno male che almeno sui portatili,a quanto ho capito,ci saranno solo le hd3000. resta come sempre l'incognita del prezzo...

x il transcoding,era ora di vedere qualcosa, sembra che il software si stia evolvendo abbastanza,chissà quanti soldi ha dato intel agli sviluppatori x fare il botto... cuda e steam sono in giro da tanto,eppure non c'è vantaggio... in teoria dovrebbero essere leggermente meglio.. io credo che cmq l'implementazione software sarà come x le cpu multicore,un dato di fatto,solo quando tutti i produttori avranno una soluzione,non troppo diversa tra loro... adesso ci sono 3 big, nvida,intel,e amd,e ognuno ha la sua implementazione... :muro:

unnilennium
19-01-2011, 18:46
Amd deve pregare Dio affinché Intel non decida di abbassare i prezzi delle soluzioni mobili Sandy Bridge per competere anche nella fascia medio-bassa dei portatili: le prestazioni di SB per portatili (tutte con HD Graphics 3000 di default) saranno prestazionalmente immensamente superiori (probabilmente tranne per il reparto grafico ad uso games) all'attuale max apu fusion di amd (e-350) pur avendo un tdp max di 1 watt inferiore all'e-350 (17 watt dei SB contro i 18 di e-350) :eek:

SB in fascia bassa te lo scordi proprio... resterà la vecchia architettura. praticamente faranno sparire i vecchi i5 e i7,ma gli i3 e i p6xxx resteranno in giro... a far compagnia al resto.. fusion sarà un botto, e sarebbe ora.. con gli atom che dovrebbero proprio regalarli,oppure farli sparire.

Nui_Mg
19-01-2011, 18:55
SB in fascia bassa te lo scordi proprio...
Speriamo per Amd, soprattutto considerando che l'attuale top di fusion, e-350, l'ho trovato prestazionalmente deludente (mi riferisco alla cpu dual core, non al reparto gpu) e mi aspettavo qualcosa di più nel risparmio energetico, se poi ci metti che le sue iniziali implementazioni sono su prodotti tutt'altro che economici (vedi d1 o come si chiama).
Cmq io spero sempre di vedere un Sandy nel medio periodo su portatili almeno a partire da 450/500 euro.

Vash_85
19-01-2011, 19:08
Speriamo per Amd, soprattutto considerando che l'attuale top di fusion, e-350, l'ho trovato prestazionalmente deludente (mi riferisco alla cpu dual core, non al reparto gpu) e mi aspettavo qualcosa di più nel risparmio energetico, se poi ci metti che le sue iniziali implementazioni sono su prodotti tutt'altro che economici (vedi d1 o come si chiama).
Cmq io spero sempre di vedere un Sandy nel medio periodo su portatili almeno a partire da 450/500 euro.

Guarda che stai facendo una gran confusione l' e-350 è rivale dell'ATOM, non di SB, Sand bridge lo monteranno sui portatili di fascia media a quella altissima, l'e-350 è una piattaforma per netbook....

The Gold Bug
19-01-2011, 19:12
Un chiarimento, se prendo una MB 1155 di fascia bassa tipo questa
Gigabyte GA-H67M-D2 H67,S1155,mATX,DDR3,Intel,EuP

ci posso mettere su un 2500K? L'integrata funzionerebbe?

Nui_Mg
19-01-2011, 19:18
Guarda che stai facendo una gran confusione l' e-350 è rivale dell'ATOM,
Lo so benone, parlavo nella molto remota situazione che SB potesse essere collocato nel medio periodo nella fascia di prezzo a cui inizialmente si e' visto l'e-350 (sui circa 450 euro), oltre al fatto che lenovo ha già annunciato dei portatili SB a partire da 500 euro. Non guardo a cosa e' netbook o notebook (visto che ormai questi due termini dicono poco, pensiamo per esempio che ci sono portatili non definiti netbook ma che costano sui 340 euro e che costano meno e sono ben più potenti di portatili definiti netbook), guardo a quello che posso ottenere con una certa spesa.

calcolatorez3z2z1
19-01-2011, 19:18
...tutti i test di anandtech sulle performance di sandy bridge in quick sync risultano abbondantemente opposti ai vostri...sia in termini tempistici che in termini di output qualitativi per le schede grafiche...

http://images.anandtech.com/graphs/graph4083/35055.png

http://images.anandtech.com/graphs/graph4083/35053.png

http://images.anandtech.com/graphs/graph4083/35054.png

http://www.anandtech.com/show/4083/the-sandy-bridge-review-intel-core-i7-2600k-i5-2500k-core-i3-2100-tested/9#

...dove sta il cruccio?...

è possible che il test sia stato fatto con risoluzioni differenti.... a basse risoluzioni gli fps sono maggiori di quelle delle concorrenti.... se la risoluzione aumenta questo margine prestazionale crolla in maniera meno che lineare.... lo stesso discorso vale quando si andranno a fare i test di Benchmark delle CPU

rexjanuarius
19-01-2011, 19:31
spero vivamente che amd tiri fuori qualcosa di favoloso con Fusion. Credo che lo scenario che si delineerà sarà quello di un intel più forte sul settore CPU, e un AMD più su quello GPU. Poi , ovviamente l'implementazione software gioca un ruolo fondamentale nelle prestazioni (Quick sync docet).
Per quanto riguarda Bulldozer, credo che solo con u clock piuttosto elevato AMD riesca a raggiungere Intel in prestazioni, date anche le premesse.
Insomma, AMD dovrà stringere ancora i denti.....questa è l'amara verità, con cui purtroppo pure io, da grande ammiratore di AMD (nonostante abbia ancora un q8300, ma appena esce bulldozer, passerò subito!!!) devo fare i conti.....la mia idea idea a riguardo è questa: AMD ha le idee, ma non le fab (=più tempo per realizzarle), mentre intel ha tutti gli stabilimenti che gli servono per produrre i suoi progetti.

Bighi
19-01-2011, 19:38
Ma scusatemi: sulla prova delle cpu si usa la risoluzione 1024x768 per i giochi per testare le cpu, e come si e' visto la cpu fa la differenza; ora si usa la stessa risoluzione per i test della GPU, mi pare ovvio che un GX 980 non renda come quella intel, al piu' si sarebbe dovuto usare un processore che ha ottenuto le pari prestazioni usando la stessa scheda video esterna.

canapa
19-01-2011, 19:44
Sarebbe interessante sapere che cpu montava il sistema 890GX.....

Bighi
19-01-2011, 20:20
Non cambia visto che al momento guardando i test fatti da HWupgrade nessun Phenon II riesce ad avvicinarsi nei giochi all'i5 2500K che e' quello usto in questa prova.

maumau138
19-01-2011, 21:00
Mi dispiace dirlo ma questa recensione non mi è piaciuta, si testa la HD3000 che è presente solamente su 2 CPU, per di più le più costose, mentre si tralascia completamente la HD2000, presente su tutte le altre.
Voglio vedere chi è che si compra una versione K e poi non ci mette una scheda video con i controcaspiti, molto probabilmente addirittura non si useranno le H67, ma le P67. Insomma si trascura quasi tutto il mercato Sandy Bridge.
Poi riguardo la compressione video, avete usato un solo software, utilizzando un solo tipo di video e un solo tipo di profilo.
Mi dispiace soprattutto perché stona con il resto della recensione, che reputo fatta molto bene.

rokusho
19-01-2011, 21:27
Per la redazione: se non ci dite con che quantità di memoria avete settato il framebuffer "fisso" della GPU nel BIOS, i test mancano di un dato importante!!!!!!!!!!!!

64, 128, 256? Che valore c'è nel BIOS?

oplita
19-01-2011, 21:44
Recensione di dubbia utilità....
chi prende un Sandy bridge serie K userà schede video discrete e schede madri con chipset p67,
per cui non interessa minimamente la scheda video HD3000....
..la cosa interessante era una prova della HD2000
dei processori "lisci" su schede con chipset serie H...
..magari con qualcosina sui margini di overclock di questa ultima ( mi sembra che l' H67 lo consenta, se non erro.. )

marchigiano
19-01-2011, 21:52
...tutti i test di anandtech sulle performance di sandy bridge in quick sync risultano abbondantemente opposti ai vostri...sia in termini tempistici che in termini di output qualitativi per le schede grafiche...

http://images.anandtech.com/graphs/graph4083/35055.png

http://images.anandtech.com/graphs/graph4083/35053.png

http://images.anandtech.com/graphs/graph4083/35054.png

http://www.anandtech.com/show/4083/the-sandy-bridge-review-intel-core-i7-2600k-i5-2500k-core-i3-2100-tested/9#

...dove sta il cruccio?...

forse perchè hwu ha riportato il tempo totale e anand i frame al secondo?

senza nulla togliere alla vostra recensione, molto completa ed esauriente, vorrei interrogarmi sul fatto se sia ancora sensato usare 1024x768 come risoluzione per i test.
voglio dire...chi è che usa ancora un monitor del genere? li producono ancora? un utente che adopera un i5 di questa categoria avrà come minimo un 1440x900, o no? questo vale per la vostra come per molte altre testate web...

se il gioco a 1440 non gira lo setti a 1024 e anche se un po malino ci giochi...

SB in fascia bassa te lo scordi proprio... resterà la vecchia architettura. praticamente faranno sparire i vecchi i5 e i7,ma gli i3 e i p6xxx resteranno in giro... a far compagnia al resto.. fusion sarà un botto, e sarebbe ora.. con gli atom che dovrebbero proprio regalarli,oppure farli sparire.

no in teoria dovrebbero fare dei sandy anche celeron... aspetta qualche mese

Un chiarimento, se prendo una MB 1155 di fascia bassa tipo questa
Gigabyte GA-H67M-D2 H67,S1155,mATX,DDR3,Intel,EuP

ci posso mettere su un 2500K? L'integrata funzionerebbe?

le integrate funzionano solo con chipset H67, sul P67 non funzionano

la gpu la puoi cloccare solo col H67

la cpu la puoi cloccare solo col P67

blackshard
19-01-2011, 22:23
forse perchè hwu ha riportato il tempo totale e anand i frame al secondo?


Rimane che i risultati sono tutti sballati rispetto sia ad anandtech che a tom's (!!!) e anche le analisi qualitative sono sballate. E' tutto sballato.

Elrim
19-01-2011, 23:24
Avevo letto che metro 2033 era molto pesante e che richiedeva pc molto potenti. Invece qui vedo che parte accettabilmente su una integrata. Ma la 5450 e questa integrata non sono sotto i requisiti minimi?
Me lo chiedo perchè nei requisiti minimi chiede una 8800gt o una gt220.

Scusate per il semi-ot

Considera che qui fa poco più di una ventina di frame (sotto la soglia della fluidità) con tutto low a 1024*768.
Metro è relativamente leggero in Dx9, si appesantisce in Dx10, e tocca livelli da macigno in Dx11 ad alte risoluzioni, con determinati parametri attivati, in primis DoF (in grado di dimezzare letteralmente il frame rate anche su GTX580) e tessellation.
In sintesi, Metro non è un titolo particolarmente pesante con le vecchie API, ma per spremerlo a fondo in Dx11 ci vuole veramente il top a livello gpu.

Kimera O.C.
20-01-2011, 01:27
Scusate ma secondo voi una 2500S (finalmente disponibile) abbinata ad una H67 quanto piu performante di una soluzione AtomD525+Ion2 è? e nei consumi?

hardwarevip
20-01-2011, 03:05
???

ally
20-01-2011, 08:49
forse perchè hwu ha riportato il tempo totale e anand i frame al secondo?



...solitamente chi fa piu' frame al secondo termina prima la codifica...i dati sono discrepanti...sarebbe interessante sapere il parere dell'autore dell'articolo...altrimenti la discussione sullo stesso non ha ragione di esistere...

Kevin[clod]
20-01-2011, 09:10
ma sti risultati sono sballatissimi....cioè su anda e tom ci mette la metta e qui sono alla pari....bha

Paolo Corsini
20-01-2011, 10:18
oltre a questo...in giro diono che ati stream offre piu qualità rispetto al software cuda, qu, come sempre, un altra cosa

piu passano i giorni, meno ci si fida di hwupgrade...mi disp per voi!!!

Non so "cosa dicono in giro", francamente, soprattutto se questo "in giro" non è contestualizzato con un link. Se guardi le immagini presenti a questo link

http://www.hwupgrade.it/articoli/cpu/2695/intel-sandy-bridge-analisi-della-gpu-integrata_7.html

e ti consiglio di scaricare le bmp sorgenti, vedrai per quale motivo sono stati inseriti questi commenti con riferimento all'output di STREAM.

STREAM - La soluzione di AMD è quella che, a livello qualitativo, convince di meno. L'immagine presenta evidenti artefatti da compressione, che rendono l'immagine troppo impastata

STREAM - La compressione con la tecnologia di AMD fa perdere parecchi dettagli, e i contorni dellle scritte risultano molto confusi. L'effetto di impastato, che deriva dai quadrettoni frutto della compressione, forniscono un'immagine di scarsa qualità

STREAM - La bassa di qualità di compressione che MediaConverter offre con Stream risulta in una importante perdita dei dettagli. Il viso perde così molti dei toni caratteristici.

Paolo Corsini
20-01-2011, 10:22
Ma scusatemi: sulla prova delle cpu si usa la risoluzione 1024x768 per i giochi per testare le cpu, e come si e' visto la cpu fa la differenza; ora si usa la stessa risoluzione per i test della GPU, mi pare ovvio che un GX 980 non renda come quella intel, al piu' si sarebbe dovuto usare un processore che ha ottenuto le pari prestazioni usando la stessa scheda video esterna.
Ciao
se fai un confronto tra CPU e utilizzi dei giochi 3D in abbinamento a scheda video potente, testare a bassa risoluzione fa in modo che il collo di bottiglia non sia mai la GPU ma sempre la CPU. Stai del resto confrontando processori, non GPU.

In questo caso la logica è opposta: testi GPU di poca potenza, che quindi sono sempre collo di bottiglia, pertanto utilizzi una risoluzione bassa per ricreare uno scenario di test che sia sensato con quella che è la destinazione d'uso di quel sistema.

La scelta della stessa, o simile, risoluzione parte quindi da basi differenti. Per la stessa logica nel testare schede video di fascia alta si sale molto di risoluzione utilizzando impostazioni qualitative spinte.

Paolo Corsini
20-01-2011, 10:23
Sarebbe interessante sapere che cpu montava il sistema 890GX.....
Non l'ho messo nella descrizione: processore Phenom II X4 965. I frames, con quella piattaforma, non cambiano nel momento in cui il processore viene downcloccato a 1,6 GHz in quanto il collo di bottiglia, con questi test, è la GPU: ho fatto questo test per curiosità mia durante l'analisi.

Paolo Corsini
20-01-2011, 10:26
Mi dispiace dirlo ma questa recensione non mi è piaciuta, si testa la HD3000 che è presente solamente su 2 CPU, per di più le più costose, mentre si tralascia completamente la HD2000, presente su tutte le altre.
Voglio vedere chi è che si compra una versione K e poi non ci mette una scheda video con i controcaspiti, molto probabilmente addirittura non si useranno le H67, ma le P67. Insomma si trascura quasi tutto il mercato Sandy Bridge.
Poi riguardo la compressione video, avete usato un solo software, utilizzando un solo tipo di video e un solo tipo di profilo.
Mi dispiace soprattutto perché stona con il resto della recensione, che reputo fatta molto bene.
Ciao
abbiamo indicato la differenza tra HD300 e HD2000, segnalando come non avevamo a disposizione una CPU con HD2000 (sulla quale sto cercando di mettere le mani).
E' evidente che se comperi una CPU serie K la adotti su un sistema con scheda video discreta e non con GPU integrata; questo tipo di considerazioni sono state però fatte nei precedenti articoli.

Software: i video sono due, il software uno in quanto sono due quelli a disposizione compatibili con Quick Sync ma devi assicurarti in test compatibilità con tutte le differenti configurazioni che vuoi mettere a confronto.

Paolo Corsini
20-01-2011, 10:27
Buongiorno a tutti

scusate il ritardo nella risposta: giornata piena di impegni ieri e non siamo materialmente riusciti a seguire la discussione una volta che l'articolo è andato live.

Differenze prestazionali: abbiamo utilizzato sorgenti video differenti rispetto a quanto fatto da altri, e da questo le differenze. Se notate nei grafici di Anand (che riporta i frames al secondo non il tempo di elaborazione) vedete come nei suoi test la piattaforma Quick Sync registri margini di incremento rispetto alle soluzioni concorrenti molto differenti.

Cerco di capire se riesco a risalire ai flussi video che hanno testato su altri siti così da cercare di replicare i loro risultati.

Avrei un solo appunto sull'articolo: perchè non confrontare le nuove GPU di Sandy Bridge con la GeForce 320M, visto che in diversi casi ne sarà la sostituta probabilmente (vedi MacBook Pro 13")?
Sarebbe stato estremamente interessante.
Non avevamo a disposizione quel tipo di GPU per poter fare un confronto prestazionale. Inoltre questa NVIDIA è una GPU mobile; Sandy Bridge è stato testato per la parte GPU nell'implementazione desktop.


senza nulla togliere alla vostra recensione, molto completa ed esauriente, vorrei interrogarmi sul fatto se sia ancora sensato usare 1024x768 come risoluzione per i test.
voglio dire...chi è che usa ancora un monitor del genere? li producono ancora? un utente che adopera un i5 di questa categoria avrà come minimo un 1440x900, o no? questo vale per la vostra come per molte altre testate web...
Ciao
a prescindere dalla risoluzione nativa del monitor, la scelta dei 1024x768 pixel è legata alla ridotta potenza di calcolo. Le impostazioni qualitative con tutti i titoli testati sono state sempre le più conservative (no AA, no AF). Aumentando la risoluzione i frames calano, e già non è che siano molto alti in partenza a questa risoluzione.
Si tratta di soluzioni adatte al casual gamer, non a chi è appassionato.

Kharonte85
20-01-2011, 10:50
Considerando che è una GPU integrata non è male...il miglioramento è stato notevole.

Paolo Corsini
20-01-2011, 11:19
Aggiornamento: stiamo facendo alcuni test replicando i profili utilizzati su altri siti. Il quadro che sta emergendo è che i test pubblicati su altri siti sono corretti, come lo sono i nostri.
Vi sono differenze di scalabilità molto elevate tra le varie implementazioni a seconda del tipo di output video scelto. Quello che stiamo scoprendo è che le impostazioni da noi adottate sono quelle nelle quali Quick Sync, dal punto di vista puramente prestazionale, si avantaggia molto meno che con altri settaggi.

Non appena avremo finito Gabriele aggiornerà quella parte di articolo con le nuove misure e commenti.

Kimera O.C.
20-01-2011, 11:47
Potreste fare una prova evidenziano FPS e Watt nella visione di un BluRay 3D?

ninja750
20-01-2011, 12:21
Non so "cosa dicono in giro", francamente, soprattutto se questo "in giro" non è contestualizzato con un link.

Intel Core i5-2500K (x86) http://images.anandtech.com/reviews/cpu/intel/sandybridge/review/quicksync/darkknight/snb.png
Intel Quick Sync http://images.anandtech.com/reviews/cpu/intel/sandybridge/review/quicksync/darkknight/quicksync.png
NVIDIA GeForce GTX 460 http://images.anandtech.com/reviews/cpu/intel/sandybridge/review/quicksync/darkknight/gtx460.png
AMD Radeon HD 6870 http://images.anandtech.com/reviews/cpu/intel/sandybridge/review/quicksync/darkknight/6870.png

ciao

Gibbus
20-01-2011, 12:35
@Paolo Corsini
Potreste postare, o integrare nell'articolo se credete, un screenshot di gpuz dell'HD 3000? Ero curioso di vedere la bandwidth e la larghezza di bus...

Grazie.

MisterTX
20-01-2011, 13:37
Per un livello ufficio ,quindi pacchetto Office + qualche programma gestionale e qualche video livello internet base e xvid vari. Una CPU sandy bridge ,senza scheda vga esterna montata potrebbe bastare ?

Diciamo un tutto in uno e su risoluzione 1400x900

marchigiano
20-01-2011, 13:47
sarebbe interessante anche testare se ci sono cali di cpu quando è attiva la gpu integrata

ally
20-01-2011, 14:11
Non so "cosa dicono in giro", francamente, soprattutto se questo "in giro" non è contestualizzato con un link. Se guardi le immagini presenti a questo link

http://www.hwupgrade.it/articoli/cpu/2695/intel-sandy-bridge-analisi-della-gpu-integrata_7.html

e ti consiglio di scaricare le bmp sorgenti, vedrai per quale motivo sono stati inseriti questi commenti con riferimento all'output di STREAM.

STREAM - La soluzione di AMD è quella che, a livello qualitativo, convince di meno. L'immagine presenta evidenti artefatti da compressione, che rendono l'immagine troppo impastata

STREAM - La compressione con la tecnologia di AMD fa perdere parecchi dettagli, e i contorni dellle scritte risultano molto confusi. L'effetto di impastato, che deriva dai quadrettoni frutto della compressione, forniscono un'immagine di scarsa qualità

STREAM - La bassa di qualità di compressione che MediaConverter offre con Stream risulta in una importante perdita dei dettagli. Il viso perde così molti dei toni caratteristici.

...veramente il mio post...primo come posizione...riporta chiaramente il link alla recensione di anadtech...non proprio "una voce in giro"...li si legge e si vede con immagini di riferimento risultati migliori per le soluzioni amd...

...tutti i test di anandtech sulle performance di sandy bridge in quick sync risultano abbondantemente opposti ai vostri...sia in termini tempistici che in termini di output qualitativi per le schede grafiche...

http://images.anandtech.com/graphs/graph4083/35055.png

http://images.anandtech.com/graphs/graph4083/35053.png

http://images.anandtech.com/graphs/graph4083/35054.png

http://www.anandtech.com/show/4083/the-sandy-bridge-review-intel-core-i7-2600k-i5-2500k-core-i3-2100-tested/9#

...dove sta il cruccio?...

gabriele_burgazzi
20-01-2011, 14:20
In risposta alla vostre segnalazioni ho aggiornato l'articolo. Trovate così gli aggiornamenti alla pagina "analisi prestazionale", disponibile a questo indirizzo (http://www.hwupgrade.it/articoli/2695/6.html).
Come potete notare, i valori riportati, cambiando le impostazioni rientrano perfettamente in linea con i grafici che avete estrapolato da altri siti.

Appare piuttosto evidente che i valori emersi dai test mettano in luce quanto variano i tempi di transconding in relazione ai diversi tipi di formati utilizzati. I test che abbiamo fornito nella prima stesura dell'articolo, ricontrollati per scrupolo, sono confermati e non sono assolutamente sballati. Si tratta semplicemente di scenari diversi rispetto a quelli analizzati dagli altri siti che avete linkato, con conseguenti tempi di transconding diversi.

L'applicazione delle tecnologie di accelerazione per le conversioni video sembra pertanto dipendere in modo diretto dal tipo di formati utilizzati, andando così a fornire incrementi prestazionali variabili, a seconda dello scenario.

Vi ringrazio pertanto per le segnalazioni che ci hanno permesso di evidenziare sfumature che nessuna altra fonte di informazione è stata in grado di rilevare.

Colgo l'occasione per portare avanti alcune considerazioni personali, frutto del lavoro di questi anni per Hardware Upgrade. Personalmente quando affronto un articolo cerco di analizzare il prodotto o la tecnologia che mi trovo di fronte nel modo più oggettivo e interessante possibile. Tutto questo lo faccio per cercare di fornire al lettore, voi, ciò che desidera.

In molti casi mi accorgo però che, nonostante negli anni si possano contare sulle dita di una mano eventuali errori grossolani, non serve invece molto per puntare il dito e sparare a zero. Parlo generalizzando, quindi me ne scusino tutti coloro che sono sempre disposti a cercare una logica spiegazione e, soprattutto, aperti al dialogo.

Spero che i dati forniti, frutto di una seconda analisi fatta ad hoc, possano fornirvi le giuste informazioni, che già nella loro prima stesura, erano corrette.

coschizza
20-01-2011, 14:25
Per un livello ufficio ,quindi pacchetto Office + qualche programma gestionale e qualche video livello internet base e xvid vari. Una CPU sandy bridge ,senza scheda vga esterna montata potrebbe bastare ?

Diciamo un tutto in uno e su risoluzione 1400x900

potrebeb bastare ?, sarebbe gia sovradimensionato un i3 o i5 corrente senza andare a toccare i nuovi SB

ally
20-01-2011, 14:26
In risposta alla vostre segnalazioni ho aggiornato l'articolo. Trovate così gli aggiornamenti alla pagina "analisi prestazionale", disponibile a questo indirizzo (http://www.hwupgrade.it/articoli/2695/6.html).
Come potete notare, i valori riportati, cambiando le impostazioni rientrano perfettamente in linea con i grafici che avete estrapolato da altri siti.

Appare piuttosto evidente che i valori emersi dai test mettano in luce quanto variano i tempi di transconding in relazione ai diversi tipi di formati utilizzati. I test che abbiamo fornito nella prima stesura dell'articolo, ricontrollati per scrupolo, sono confermati e non sono assolutamente sballati. Si tratta semplicemente di scenari diversi rispetto a quelli analizzati dagli altri siti che avete linkato, con conseguenti tempi di transconding diversi.

L'applicazione delle tecnologie di accelerazione per le conversioni video sembra pertanto dipendere in modo diretto dal tipo di formati utilizzati, andando così a fornire incrementi prestazionali variabili, a seconda dello scenario.

Vi ringrazio pertanto per le segnalazioni che ci hanno permesso di evidenziare sfumature che nessuna altra fonte di informazione è stata in grado di rilevare.

Colgo l'occasione per portare avanti alcune considerazioni personali, frutto del lavoro di questi anni per Hardware Upgrade. Personalmente quando affronto un articolo cerco di analizzare il prodotto o la tecnologia che mi trovo di fronte nel modo più oggettivo e interessante possibile. Tutto questo lo faccio per cercare di fornire al lettore, voi, ciò che desidera.

In molti casi mi accorgo però che, nonostante negli anni si possano contare sulle dita di una mano eventuali errori grossolani, non serve invece molto per puntare il dito e sparare a zero. Parlo generalizzando, quindi me ne scusino tutti coloro che sono sempre disposti a cercare una logica spiegazione e, soprattutto, aperti al dialogo.

Spero che i dati forniti, frutto di una seconda analisi fatta ad hoc, possano fornirvi le giuste informazioni, che già nella loro prima stesura, erano corrette.

...scusa Gabriele...ma su andand vengono riportati artefatti nell'uso di cuda...questo stride con i vostri dati...questo da cosa dipende?...

gabriele_burgazzi
20-01-2011, 14:34
Gli artefatti che vedi riportati su Anand, se apri uno dei nostri bitmap allegati, li ritrovi.
Io purtroppo posso dirti come mi sono comportato nei miei test, non so cosa hanno fatto altri siti. Ritengo che ci siano comunque un alto numero di variabili che dipendono dall'utilizzo di diverse immagini analizzate, ma non solo.

ally
20-01-2011, 14:38
Gli artefatti che vedi riportati su Anand, se apri uno dei nostri bitmap allegati, li ritrovi.
Io purtroppo posso dirti come mi sono comportato nei miei test, non so cosa hanno fatto altri siti. Ritengo che ci siano comunque un alto numero di variabili che dipendono dall'utilizzo di diverse immagini analizzate, ma non solo.

...sicuramente è che per quanto le variabili in gioco siano tante le altre testate hanno ottenuto risultati tra loro allineati...i vostri numerini suonano un po' fuori dal coro...si resta perplessi...considerando poi che quick synk è una tecnologia in cui intel sembra aver investito molto...

marmotta88
20-01-2011, 14:47
Considera che qui fa poco più di una ventina di frame (sotto la soglia della fluidità) con tutto low a 1024*768.
Metro è relativamente leggero in Dx9, si appesantisce in Dx10, e tocca livelli da macigno in Dx11 ad alte risoluzioni, con determinati parametri attivati, in primis DoF (in grado di dimezzare letteralmente il frame rate anche su GTX580) e tessellation.
In sintesi, Metro non è un titolo particolarmente pesante con le vecchie API, ma per spremerlo a fondo in Dx11 ci vuole veramente il top a livello gpu.

Grazie mille per la risposta esaustiva. Ho scoperto solo oggi che finalmente è uscita la demo che proverò quanto prima. Ho intenzione di acquistarlo e di giocarci su notebook con una 5650m e avevo paura che mon partisse.

gabriele_burgazzi
20-01-2011, 14:54
...sicuramente è che per quanto le variabili in gioco siano tante le altre testate hanno ottenuto risultati tra loro allineati...i vostri numerini suonano un po' fuori dal coro...si resta perplessi...considerando poi che quick synk è una tecnologia in cui intel sembra aver investito molto...

Prima parli di artefatti ora di numerini. Hai per caso guardato l'ultimo grafico che ho aggiunto nella pagina dei test prestazionali del transcoding?

Semplicemente effettuando la stessa conversione fatta da Anandtech, i risultati che abbiamo ottenuti sono identici. Ciò non toglie che, cambiando lo scenario di transcoding, i risultati siano invece meno brillanti per quick sync.

AleLinuxBSD
20-01-2011, 14:58
Si conferma l'ottimo comportamento della Gpu (HD 3000), cosa che fà rimpiangere maggiormente l'impossibilità di averla negli altri modelli (considerando i ben noti limiti delle attuali motherboard per cui uno avrebbe potuto pensare di non prendere un modello K ed abbinarci un chipset H67 rinunciando quindi all'overclock ma mantenendosi una buona grafica integrata).
Dimezzato i risultati del test di può notare come la HD2000 presenta valori prestazionali che non differiscono dalle precedenti generazioni con grafica integrata nella motherboard anziché nella cpu, con l'unico vantaggio di mantere consumi inferiori.

ally
20-01-2011, 15:03
Prima parli di artefatti ora di numerini. Hai per caso guardato l'ultimo grafico che ho aggiunto nella pagina dei test prestazionali del transcoding?

Semplicemente effettuando la stessa conversione fatta da Anandtech, i risultati che abbiamo ottenuti sono identici. Ciò non toglie che, cambiando lo scenario di transcoding, i risultati siano invece meno brillanti per quick sync.

...per numerini intendevo sia artefatti che prestazioni di codifica...si l'ultimo grafico si allinea con quanto letto nelle recensioni delle piu' importanti testate mondiali...hai per caso risposta sulla possibile discrepanza di questo risultato con i vostri fatti in precedenza?...magari qualche impostazione che sfrutta un buffer di dimensioni diverse?...gioventu' delle applicazioni che sfruttano quick sync?...si potranno avere aumenti ancora maggiori in futuro?...

bruschini
20-01-2011, 17:21
Certo che alla Intel sono proprio "strani"...

Fanno delle CPU overcloccabili con la grafica potente... ma se vuoi overcloccarli non puoi usare la grafica integrata.

La serie K, essendo la più costosa, credo vedrà pochi abbinamenti con H67. Se prendo K prendo anche P67 e una VGA decente IMHO.

Quick Sync sarà anche bellissimo ma se viene disabilitato in caso di PC con VGA esterna (è vero?) allora a cosa serve? E via di nuovo con CUDA o Stream.
Gli unici a beneficiarne saranno quelli che vogliono un sistema dalle poche pretese, che probabilmente non sceglieranno K e che quindi saranno anche penalizzati dalla GPU in versione schifida.

Sembra che non sia stato risolto il baco hardware relativo ai microscatti con sorgenti 23.976...

Per il mio prossimo HTPC sono in attesa di vedere come andranno i prossimi AMD E350 e i prossimi SB a basso consumo.
Trovo valori molto diversi sui consumi di SB. Quanto cunsamano "alla presa" sistemi ottimizzati per uso muletto?

Grazie, ciao.

Bighi
20-01-2011, 18:18
Ciao
se fai un confronto tra CPU e utilizzi dei giochi 3D in abbinamento a scheda video potente, testare a bassa risoluzione fa in modo che il collo di bottiglia non sia mai la GPU ma sempre la CPU. Stai del resto confrontando processori, non GPU.

In questo caso la logica è opposta: testi GPU di poca potenza, che quindi sono sempre collo di bottiglia, pertanto utilizzi una risoluzione bassa per ricreare uno scenario di test che sia sensato con quella che è la destinazione d'uso di quel sistema.

La scelta della stessa, o simile, risoluzione parte quindi da basi differenti. Per la stessa logica nel testare schede video di fascia alta si sale molto di risoluzione utilizzando impostazioni qualitative spinte.

Paolo son d'accordo con te, perche' mi rendo conto come sia impossibile confrontare 2 GPU non performanti ad alte risoluzioni. Non metto in dubbio anche che chi dovesse scegliere tra le 2 soluzioni ora come ora e' di sicuro meglio la cpu intel, ma con quel test non misuro di certo le prestazioni delle 2 GPU, ma le prestazioni dell'intero sistema GPU+CPU. Non e' detto che tra magari 6 mesi AMD mi tiri fuori una CPU ottimizzata ( soket AM3) che va come la nuova cpu intel ed in tal caso il risultato non è di certo uguale.
Abbiamo del resto gia' visto nei vecchi test quando hai provato la cpu che a fare la differenza era la CPU e non tanto la scheda video che era uguale.
Ora per fare le cose fatte bene:

1) o si fa un test sulla HD3000 esterne (sempre sia disponibile) montata sul 2500 e la si confronta con quella presente ne sandy. Se sono uguali monto la scheda HD3000 sul gx890 e vedo la differenza. Quella differenza e' quella data dal processore diverso.

2) mi abbassi la frequenza del 2500 fino a che con una scheda esterna (abbastanza potente) non ottieni gli stessi risultati che hai con il phenon 2 che hai usato e la stessa scheda video. A quel punto rifai il test con la gpu integrata del 2500.

Master Mystery
20-01-2011, 18:38
Io di queste tecnologie hardware sinceramente non so che farmene. Per carità, saranno utili per chi vuole qualcosa di veloce, ma una persona che deve comprimere un video e vuole una certa qualità, non andrà a prendere SOLO il software, con le SOLE versioni di codec e le SOLE impostazioni/filtri compatibili con questo hardware, piuttosto aspetta. E la stessa cosa vale per la decodifica.

Speriamo che in futuro l'enorme potenza disponibile dalle GPU si possa addattare meglio in qualsiasi scenario, forse con l'entrata di nvidia con i suoi chip ARM per desktop le cose inizieranno a cambiare veramente, si spera a beneficio di tutti e non con l'utilizzo di questo benedetto cuda, magari in opencl o boh.

mister_y
20-01-2011, 20:10
Grazie a Paolo e alla redazione per essere intervenuti nella discussione ed aver chiarito meglio la situazione. L'unico dubbio che mi resta però riguarda l'analisi qualitativa: Anand ha purtroppo confermato il notevole rumore prodotto da CUDA, ma non la scarsissima qualità della codifica AMD ottenuta nei vostri test. Cioé guardando le foto e il breve video postato direi che la codifica delle AMD non abbia qualche difettucio, ma che è proprio una schifezza! :D
Come dire... Mi sembra davvero troppo brutta per essere vera. Non è possibile che si sia verificata qualche magagna in fase di test? Driver sbagliati o poco compatibili con l'applicazione usata per esempio... Potreste ripetere il test (solo per AMD) con un altro programma?
Grazie.

Comunque sono rimasto perplesso: la migliore soluzione dal punto di vista qualitativo è la codifica software! Pensavo che l'accelerazione via hardware potesse avere solo effetti positivi, ma scopro che se da un lato abbiamo una diminuzione del tempo necessario, dall'altra abbiamo un importante calo di qualità. Se questa è la strada intrapresa, secondo me è sbagliata, e tanto vale usare la codifica software. Ottime le Intel comunque.

marchigiano
20-01-2011, 21:41
però se c'è un calo di qualità bisognerebbe confrontare il lavoro della cpu con impostazioni inferiori

inoltre mi chiedo se durante la conversione quick sync il sistema rimane libero e quindi usabile per altri task...

Nui_Mg
20-01-2011, 22:14
inoltre mi chiedo se durante la conversione quick sync il sistema rimane libero e quindi usabile per altri task...
Sembra che con quicksync ci sia il minor utilizzo di cpu, almeno secondo l'articolo di Tom (http://www.tomshw.it/cont/articolo/intel-sandy-bridge-la-seconda-generazione-di-cpu-core-quick-sync-vs-app-vs-cuda/28819/9.html) relativo alle due immagini che avevo postato in precedenza:
----------------------
Il risultato è alquanto interessante. Senza accelerazione, la transcodifica per il profilo iPad ha richiesto 1:35 - con un Core i7 2600K caricato al 30 percento. Con la scheda video Nvidia installata, l'uso è balzato al 50 percento, ma il lavoro è stato concluso 20 secondi prima. Una Radeon HD 6970 ha raggiunto un uso e prestazioni ancora più impressionanti. Tuttavia la modalità ottimizzata per sfruttare Quick Sync è stata quella più impressionante, richiedendo 41 secondi e sfiorando appena i core del processore.
----------------------

zhelgadis
21-01-2011, 08:59
Mi perdo qualcosa, o la pagina 5 (QuickSync)
http://www.hwupgrade.it/articoli/cpu/2695/intel-sandy-bridge-analisi-della-gpu-integrata_5.html
Ha lo stesso contenuto della pagina 6 (Analisi prestazionale)
http://www.hwupgrade.it/articoli/2695/6.html

ally
21-01-2011, 09:29
Mi perdo qualcosa, o la pagina 5 (QuickSync)
http://www.hwupgrade.it/articoli/cpu/2695/intel-sandy-bridge-analisi-della-gpu-integrata_5.html
Ha lo stesso contenuto della pagina 6 (Analisi prestazionale)
http://www.hwupgrade.it/articoli/2695/6.html

...mh...ieri era presente la comparativa qualitativa...

qasert
22-01-2011, 08:20
ma la gpu si potra spegnere quando se ne avra un altra?altrimenti sara un consumo inutile

unnilennium
22-01-2011, 11:35
ma la gpu si potra spegnere quando se ne avra un altra?altrimenti sara un consumo inutile

certo che si spegne, anzi,è proprio disattivata,appena monti una scheda video dedicata, si esclude la gpu

Totenrune
23-01-2011, 12:53
Tanto chi ha bisogno di una gpu di certo non compra queste robette. Le integrate sono sempre state nei pc di chi nell'acquisto si preoccupa solo di spendere poco, e neanche sa che cosa sia una scheda video.

unnilennium
23-01-2011, 13:53
Tanto chi ha bisogno di una gpu di certo non compra queste robette. Le integrate sono sempre state nei pc di chi nell'acquisto si preoccupa solo di spendere poco, e neanche sa che cosa sia una scheda video.

veramente no. il fatto è che se non ti serve una scheda video dedicata, l'integrata va bene. e quest'ultima, va molto bene,per essere un'integrata.tutto qui.

blackshard
23-01-2011, 14:09
veramente no. il fatto è che se non ti serve una scheda video dedicata, l'integrata va bene. e quest'ultima, va molto bene,per essere un'integrata.tutto qui.

Infatti, non è più come una volta che la scheda video integrata era sinonimo di prestazioni ridicole anche sotto windows in 2D. Adesso con una integrata ci si fa tranquillamente tutto tranne che giocare.

Korn
24-01-2011, 13:43
da amdista non posso che fare i complimenti per la vga integrata!

Opteranium
26-01-2011, 11:56
E' evidente che se comperi una CPU serie K la adotti su un sistema con scheda video discreta e non con GPU integrata
mica vero... ;)

per me che non gioco ma faccio montaggio video il quick sync è come il cacio sui maccheroni, quindi un 2500k+h67 non me lo leva nessuno

ally
26-01-2011, 12:15
mica vero... ;)

per me che non gioco ma faccio montaggio video il quick sync è come il cacio sui maccheroni, quindi un 2500k+h67 non me lo leva nessuno

...beh anche uno sviluppatore il piu' delle volte non ha esigenze particolari per quanto riguarda la sezione video...

simone14000
09-02-2011, 20:57
bei mostri questi

flaco84
15-02-2011, 16:43
quasi quasi faccio un pensierino sull' I5 tanto per giocare basta e avanza supportato da una bella sv

gizmo83
03-06-2011, 17:07
la gpu integrata per me rappresenta un ottimo passo in avanti e garantisce un sostegno in caso di cambio di gpu dedicata.

psychok9
27-07-2011, 00:58
Gli artefatti che vedi riportati su Anand, se apri uno dei nostri bitmap allegati, li ritrovi.
Io purtroppo posso dirti come mi sono comportato nei miei test, non so cosa hanno fatto altri siti. Ritengo che ci siano comunque un alto numero di variabili che dipendono dall'utilizzo di diverse immagini analizzate, ma non solo.

Ti ho mandato un PM :D
Forse ho scoperto l'arcano: se avete preso i capture da ogni piattaforma di codifica, i Catalyst in riproduzione hanno dei filtri di default che filtrano e abbassano quindi la definizione dell'immagine.
Mentre magari altre testate hanno preso i capture alla fine, con filtri disattivati o vga nVidia/Intel dove i filtri sono disabilitati di default.