View Full Version : GeForce GTX 750Ti e Radeon R7 265: le novità di NVIDIA e AMD
Redazione di Hardware Upg
18-02-2014, 15:00
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/3925/geforce-gtx-750ti-e-radeon-r7-265-le-novita-di-nvidia-e-amd_index.html
NVIDIA presenta quest'oggi le nuove schede GeForce GTX 750 e GeForce GTX 750Ti, le prime ad essere basate su GPU della famiglia Maxwell. Sono prodotti di fascia medio bassa caratterizzati da un ottimale bilanciamento tra consumi e prestazioni. Ne analizziamo il comportamento accanto a Radeon R7 265, l'ultima arrivata di AMD
Click sul link per visualizzare l'articolo.
Ottimi quei consumi per le performance della GTX 750 Ti, ma in termini di prezzo è un po' troppo alta.
Il nabbo di turno
18-02-2014, 15:29
Imho, ottima scheda, grande rapporto prestazioni/watt, però c'è da considerare che la 260x va un pelo meno e consuma in media 30w in più di questa, ma ci sono 40 euro di differenza, non pochi.
Però questo è un difetto che si elimina con il tempo.
Da considerare che la 265 a 130 è attualmente un best buy per 130 euro.
Ottimi quei consumi per le performance della GTX 750 Ti, ma in termini di prezzo è un po' troppo alta.
Ancora non è arrivata nei negozi...Lascia che riempiano i magazzini e si troverà a 110 euro circa online..
Comunque fra le due prenderei sicuramente una 265.
celsius100
18-02-2014, 16:03
Come ci si aspettava la R7 265 è una buonissima scheda, qualità-prezzo è un'ottima proposta, va circa un 15% meglio della sua rivale di categoria
invece sono deluso invece dalla 750Ti, che va dal 5 al 10% meno rispetto alla 650Ti boost (vga che secondo nomenclatura dovrebbe sostituire) costa anche un pò troppo; a questo punto viste le prestazioni l'avrei chiamata 750 senza il suffisso Ti
invece sono deluso invece dalla 750Ti, che va dal 5 al 10% meno rispetto alla 650Ti boost (vga che secondo nomenclatura dovrebbe sostituire)
Sostituisce la 650ti, non la 650ti boost.
La boost è sempre costata 30 % circa in più della 650ti, mentre i prezzi della 750ti saranno quello della 650ti appena i magazzini si riempiono.
CrapaDiLegno
18-02-2014, 16:09
Il nuovo chip ha un'efficienza incredibile. Metà bus di memoria, 33% in meno di shader, metà ROPS, 33% in meno di TMU meno consumi e sta lì subito dietro alla 265. E alla pari con la 650 Ti Boost (che già di suo alla presentazione sembrava davvero molto efficiente).
Nulla invece sui probabili core ARM inseriti? Ci sono in questa fascia? Qualche test di GPGPU giusto per vedere se qualcosa è cambiato per davvero o siamo sempre allineati alle performance della vecchia generazione?
Mi sarei aspettato di meglio dalla gtx750ti.
Paganetor
18-02-2014, 16:21
però sulla risoluzione Full HD le vedo ancora un po' "arrancanti", soprattutto con i titoli più esigenti. Va bene che da 150 euro di scheda non si possono chiedere i miracoli, ma a quel punto forse sono soluzioni più adatte a monitor meno "densi" ;)
Mi sarei aspettato di meglio dalla gtx750ti.
A me sembra un ottima scheda.
Ha meno cuda della 650ti, meno tmu, consuma meno scalda meno e va di più. A me sembra un bel passo avanti e un ottimo segnale per la prossima fascia media nvidia.
Piccolo errore nel secondo grafico pagina Battlefield 4: l'ultimo bottone in basso a destra ha il nome "GTX 750Ti" mentre dovrebbe essere "GTX 660".
Per quanto riguarda la memoria unificata di Maxwell, nVidia non ha fornito al momento nessun demo? Niente di simile a quanto fatto da AMD per dimostrare le capacità di Mantle e HSA?
Therinai
18-02-2014, 17:25
Ottima scheda, è la migliore senza alimentazione aggiuntiva, occorre vederla in questa ottica ovviamente, altrimenti non ha senso.
Io da parecchi anni uso solo schede AMD perché da alcune generazioni (o rebrand, amen) fanno le migliori schede senza alimentazione aggiuntiva, che diventano le schede FANLESS con migliori prestazioni. A questo giro invece Nvidia ha fregato il posto a AMD.
Sui prezzi trovo inutile sbilanciarsi, ancora troppo presto, tra due mesi sarà tutt'altra storia.
Attendo con ansia le proposte custom con dissipazione passiva, per come stanno le cose ora credo che passerò di sicuro ad Nvidia con questa 750ti.
PS: per quanto riguarda il prezzo ho dato un occhio veloce su trovaprezzi e la 750ti 2gb parte da 126€... fidatevi che tra poco scenderà ancora, ma già così mi sembra ottimo come prezzo di partenza.
per me che gioco a 1920*1080 la scelta dovrebbe cadere sulla 750ti dato che consuma meno corrente ed è meno rumorosa e le prestazioni sono quasi uguali e la differenza di 10-15 euro contano molto meno rispetto al risparmio sulla bolletta
PS : io adesso ho una nvidia 460gtx ne vale la pena fare il cambio ?
PS: per quanto riguarda il prezzo ho dato un occhio veloce su trovaprezzi e la 750ti 2gb parte da 126€... fidatevi che tra poco scenderà ancora, ma già così mi sembra ottimo come prezzo di partenza.
dove io su trovaprezzi ho trovato al minimo a 139 €
per me che gioco a 1920*1080 la scelta dovrebbe cadere sulla 750ti dato che consuma meno corrente ed è meno rumorosa e le prestazioni sono quasi uguali e la differenza di 10-15 euro contano molto meno rispetto al risparmio sulla bolletta
PS : io adesso ho una nvidia 460gtx ne vale la pena fare il cambio ?
hai voglia.
Therinai
18-02-2014, 18:53
dove io su trovaprezzi ho trovato al minimo a 139 €
fai la ricerca solo con "750ti", uno shop ha le palit e gainward a 126 (vabbeh shop per me totalmente sconosciuto, anche per questo secondo me è meglio aspettare che il mercato si popoli per bene di proposte, tanto vista la fascia di prezzo medio bassa tra poco qualunque shop avrà una 750ti a listino).
La 460gtx non mi ricordo neanche che forma ha, ma qualcosa mi dice che la 750ti va moooolto meglio...
crilinpd
18-02-2014, 19:10
sarà un decennio che seguo la vostra redazione e vedo le vostre recensioni... mi chiedo sempre però come mai usate processori TOP il cui uso fa da solo a dire poco 20fps con Crysis? Perchè non usate mai un processore normale? Ma anche un i5 top livello (3570-4570). Chi si compra un i7 3960X.. un processore da 800euro? Ma... assurde come recensioni. Le prossime fatele con un 4960X portato a 5ghz.
network87
18-02-2014, 19:11
60watt di consumo e niente connettori sono sempre stati il mio sogno (9600gt green, gt240, gts 450, gtx 650 liscia...), questa nuova architettura nvidia sembra davvero promettente, anche se queste 2 schede sfruttano sempre i 28nm...
non vedo l'ora di vedere le declinazioni di maxwell per il mobile, magari a 20nm come promesso :)
certo che come nome in codice nVidia potrebbe trovare qualcosa di + simpatico, specialmente per me che non ho mai amato l'elettrotecnica, 'sti nome mi ricordano troppo le sue leggi :(
ovviamente non sono un fanboy nvidia! ;)
ndwolfwood
18-02-2014, 20:02
In rapporto ai consumi la GTX750Ti è veramente una bomba!
Leggendo anche altre recensioni viene fuori che consuma come una HD7750 o poco più anche per le versioni leggermente overcloccate di fabbrica ... le prestazioni delle quali sfiorano GTX650Ti boost e HD7850.
Il prezzo per ora è alto ma si tratta di una nuova architettura: quindi lunga vita e furi aggiustamenti ... ma potrebbe già attirare molti che sarebbero costretti a sostituire l'alimentatore per montare una scheda decente!
Paganetor
18-02-2014, 20:28
crilinpd, credo sia per non avere come collo di bottiglia la CPU e per capire l'effettivo potenziale della scheda.
Se con una CPU top di gamma hai 60 FPS, che informazione hai sapendo che con una CPU di fascia media ne ottieni 40? Colpa del processore o della GPU? Cosa aggiorno? Vale la pena cambiare scheda video o meglio il processore? ;)
Therinai
18-02-2014, 20:34
sarà un decennio che seguo la vostra redazione e vedo le vostre recensioni... mi chiedo sempre però come mai usate processori TOP il cui uso fa da solo a dire poco 20fps con Crysis?
Per farla breve: il processore non fa FPS, ma può impedire alla scheda video di farli, se ha prestazioni insufficienti, chiaro il concetto?
ps: di fatto i processori di fascia alta o top sono usati per qualsiasi recensione, mica solo da hwu.
GeForce GTX 750Ti e GeForce GTX 750 si differenziano unicamente per il numero di stream processors integrati: 640 nella prima contro 512 nella seconda.
Veramente nella tabella io vedo che la 750Ti ha 40 TMU mentre la 750 ne ha 32.
O è sbagliata la tabella o è sbagliata la considerazione sulle differenze tra le schede.
Littlesnitch
18-02-2014, 21:48
sarà un decennio che seguo la vostra redazione e vedo le vostre recensioni... mi chiedo sempre però come mai usate processori TOP il cui uso fa da solo a dire poco 20fps con Crysis? Perchè non usate mai un processore normale? Ma anche un i5 top livello (3570-4570). Chi si compra un i7 3960X.. un processore da 800euro? Ma... assurde come recensioni. Le prossime fatele con un 4960X portato a 5ghz.
Vedo che hai le idee un po confuse in merito. La CPU non fa nemmeno 1 FPS, al massimo ti limita, ma viste le prestazioni di queste VGA anche un i3 non ti limita ed avresti gli stessi FPS. La configurazione di test usate per le recensioni è quella ed è giusto che venga usata per tutte le recensioni, a meno che Corsini non volgi testare il CPU limited. Comunque se vuoi farti un'idea ecco qui
http://www.anandtech.com/show/7189/choosing-a-gaming-cpu-september-2013/6
Come vedi un i3 con VGA singola va anche più dell'esa core da 800€ ;)
MiKeLezZ
18-02-2014, 22:27
Mi son perso l'analisi del nuovo chip grafico Maxwell?? =_=
La 750Ti è una bomba, datemene una col doppio di unit interne e bus e sono a cavallo per 5 anni
Chiudo con la domanda richiesta da di tutti i videogiocatori (LOL), ma nel mining il Maxwell spinge di più?
A me sembra un ottima scheda.
Ha meno cuda della 650ti, meno tmu, consuma meno scalda meno e va di più. A me sembra un bel passo avanti e un ottimo segnale per la prossima fascia media nvidia.
Da questo punto di vista si nulla da dire hanno fatto un ottimo lavoro però come prestazioni sarebbe stato perfetto se eguagliava/superava la boost.
Hanno lavorato molto bene sulla qualità generale del chip forse un pò a discapito delle prestazioni.
prestazioni per W davvero notevoli, ed è un'ottimo indicatore per le schede di fascia medio-alta che a questo punto quasi sicuramente non deluderanno con queste premesse :)
CrapaDiLegno
18-02-2014, 23:49
Da questo punto di vista si nulla da dire hanno fatto un ottimo lavoro però come prestazioni sarebbe stato perfetto se eguagliava/superava la boost.
Hanno lavorato molto bene sulla qualità generale del chip forse un pò a discapito delle prestazioni.
Forse ti è sfuggito che questo chip che è il più piccolo della nuova generazione ha prestazioni come quello più grande della generazione precedente solo leggermente castrato. Hanno messo 2,5 volte il numero di SMX in uno spazio solo il 25% più grande ottenendo oltre 2 volte la potenza di calcolo. *
Rispetto alla 650Ti ha almeno il 30% in meno di roba, consuma pur il 30% in meno e ha le stesse perfomance. Il tutto con lo stesso PP. E anche se non è stato misurato, probabilmente è comunque più piccolo del GK106 montato nelle 650Ti Boost. Siamo praticamente vicini agli stessi vantaggi che porta un die shrink reale.
Dico solo che se AMD avesse ottenuto gli stessi aumenti di efficienza tra il CGN v1 e il CGN v2 ora non staremmo a mettere chili di alluminio e 3 ventilatori su una scheda che cappa a 95°...
*questa densità di SMM fa presumere che le prossime mattonelle nvidia saranno dei mostri assoluti in termini di capacità di calcolo a parità di dimensione di quelli attuali (e passati). O AMD si dà una sveglia o si ritrova presto come con le CPU: incapace di concorrere nel segmento alto e rimarrà solo con il segmento medio basso dove farà fatica a contenere i costi di chip più piccoli che vanno decisamente di più... una favola già vista nell'altro settore in cui opera.
Littlesnitch
18-02-2014, 23:50
prestazioni per W davvero notevoli, ed è un'ottimo indicatore per le schede di fascia medio-alta che a questo punto quasi sicuramente non deluderanno con queste premesse :)
Si, se riescono a mantenere questo rapporto sul GM110, anche se non credo a 28nm, e visto che AMD è appena uscita con l'architettura nuova che al massimo pareggia GK110 full, prevedo un Epic Win al prossimo giro. A 20nm questo maxwell promette molto ma molto bene!
Littlesnitch
18-02-2014, 23:54
Forse ti è sfuggito che questo chip + il più piccolo della nuova generazione ha prestazioni come quello più grande della generazione precedente solo leggermente castrato. Hanno messo 2,5 volte il numero di SMX in uno spazio solo il 25% più grande ottenendo oltre 2 volte la potenza di calcolo. *
Rispetto alla 650Ti ha almeno il 30% in meno di roba, consuma pur il 30% in meno e ha le stesse perfomance. Il tutto con lo stesso PP. Dico solo che se AMD avesse ottenuto gli stessi aumenti di efficienza cosa tra il CGN v1 e il CGN v2 ora non staremmo a mettere chili di alluminio e 3 ventilatori su una scheda che cappa a 95°...
*questa densità di SMM fa presumere che le prossime mattonelle nvidia saranno dei mostri assoluti in termini di capacità di calcolo a parità di dimensione di quelli attuali (e passati). O AMD si dà una sveglia o si ritrova presto come con le CPU: incapace di concorrere nel segmento alto e rimarrà solo con il segmento medio basso dove farà fatica a contenere i costi di chip più piccoli che vanno di più... una favola già vista nell'altro settore in cui opera.
Evitiamo le sparate da fanboy! Se metti chili di alluminio e 3 ventilatori su Hawaii e GK110 ottieni le stesse temperature e pressoché gli stessi consumi e performance. Sul fatto che AMD dovrà lavorare molto bene per fronteggiare Maxwell credo che ci siano pochi dubbi, ma non alterare la realtà. Non è il chip Hawaii che è fatto male è il dissi reference che è fatto con il :ciapet:
walter sampei
19-02-2014, 01:23
nessuna analisi sull'aspetto htpc? dato il basso consumo, sarebbe interessante, ma da altri lidi fanno notare che c'e' qualche problema di gioventu', e manca ancora il supporto a hevc... da felice utente di una gt610 sull'htpc e di una vecchia 3200 sul portatile, posso aspettare con calma, ma mi sarebbe piaciuto vedere qualche analisi in merito :)
carlottoIIx6
19-02-2014, 02:49
cut
Dico solo che se AMD avesse ottenuto gli stessi aumenti di efficienza tra il CGN v1 e il CGN v2 ora non staremmo a mettere chili di alluminio e 3 ventilatori su una scheda che cappa a 95°...
ci troviamo sicuramente ad un buon miglioramento dei consumi, ma primo che centra gnc col silicio? secondo la scheda non produce eccessivo calore, solo non lo dissipa. Quelle schede sono proggettate per lavorare a 95°, e il dissipatore non è il massimo comunque sia, ha di buono che costa poco.
*questa densità di SMM fa presumere che le prossime mattonelle nvidia saranno dei mostri assoluti in termini di capacità di calcolo a parità di dimensione di quelli attuali (e passati). O AMD si dà una sveglia o si ritrova presto come con le CPU: incapace di concorrere nel segmento alto e rimarrà solo con il segmento medio basso dove farà fatica a contenere i costi di chip più piccoli che vanno decisamente di più... una favola già vista nell'altro settore in cui opera.
questa altra cosa fa ridere :)
carlottoIIx6
19-02-2014, 02:53
Evitiamo le sparate da fanboy! Se metti chili di alluminio e 3 ventilatori su Hawaii e GK110 ottieni le stesse temperature e pressoché gli stessi consumi e performance. Sul fatto che AMD dovrà lavorare molto bene per fronteggiare Maxwell credo che ci siano pochi dubbi, ma non alterare la realtà. Non è il chip Hawaii che è fatto male è il dissi reference che è fatto con il :ciapet:
maxwell esprime la tendenza nvidia ad andare sul mobile.
mi sembra un'ottima cosa anche per i consumi desktop. Bisogna capire le versioni più potenti cosa faranno.
amd ha fatto il massimo con i 28 nm, ha messo tanto in un solo cip.
i 28 nm sono spremuti al massimo.
mi chiedo se versioni gpu alte di nvidia riescono mantenere i consumi di questo cip ottimizzato per il mobile.
il rischio sono cip grossi che costano troppo. in fondo il cip amd è piccolo e questo lo fa costare poco.
Littlesnitch
19-02-2014, 07:12
maxwell esprime la tendenza nvidia ad andare sul mobile.
mi sembra un'ottima cosa anche per i consumi desktop. Bisogna capire le versioni più potenti cosa faranno.
amd ha fatto il massimo con i 28 nm, ha messo tanto in un solo cip.
i 28 nm sono spremuti al massimo.
mi chiedo se versioni gpu alte di nvidia riescono mantenere i consumi di questo cip ottimizzato per il mobile.
il rischio sono cip grossi che costano troppo. in fondo il cip amd è piccolo e questo lo fa costare poco.
Non riesco a capire se lo fai apposta o la pensi realmente così? Cosa c'entra con il mobile l'architettura descritta nell'articolo? Cioè aumentano la cache per il mobile? Sfruttano meglio i blocchi per il mobile? E poi se qualcuno ha fatto il massimo con i 28nm quella è nVidia, ti ricordo che ha comunque un chip più grosso che anche attivando tutti i moduli consuma meno e va di più di casa AMD.
Fantastica la R9 che fa 76db :D
Fantastica la R9 che fa 76db :D
inclusi nella confezione ci sono un paio di questi :O
http://i.imgur.com/P6ZQ6fql.png
tuttodigitale
19-02-2014, 10:25
Nulla da eccepire sull'architettura.
E' di gran lunga la più efficiente quando si parla di giochi. Anche nel gpgpu ci sono stati miglioramenti non indifferenti, seppur GCN la faccia ancora da padrone.
Discutibile il supporto non completo alle dx11.1, quando la concorrenza ha questa feature da anni.
Io da parecchi anni uso solo schede AMD perché da alcune generazioni (o rebrand, amen) fanno le migliori schede senza alimentazione aggiuntiva, che diventano le schede FANLESS con migliori prestazioni. A questo giro invece Nvidia ha fregato il posto a AMD.
OLAND è grande solo 77mmq contro i 148mmq di GM107. L'intenzione di AMD, imho è quello di vendere agli OEM kaveri con in bundle una r7 240/250, esattamente come ha fatto con trinity e Turks, essendo comunque ben consapevoli che pur non potendo vantare le stesse prestazioni per watt della soluzione nvidia, un chip del genere può garantire consumi e costi di produzioni irrisori.
Quindi a tutti gli effetti sembrerebbe che AMD abbia sacrificato totalmente quel segmento...
Il nuovo chip ha un'efficienza incredibile. Metà bus di memoria, 33% in meno di shader, metà ROPS, 33% in meno di TMU meno consumi e sta lì subito dietro alla 265. E alla pari con la 650 Ti Boost (che già di suo alla presentazione sembrava davvero molto efficiente).
anche la r7 260x ha la metà delle ROPs e la metà del bus esattamente come la 750TI, e se la gtx750ti "sta lì subito dietro alla 265", la 260 e la gtx 750Ti offrono le medesime prestazioni . Quindi in questo senso la gpu non è nulla di rivoluzionario (un +20% prestazioni per mmq). E' l'efficienza ad essere il punto di forza di questa architettura, anche se voci di corridorio insistono nel dire che il PP adottato pur essendo a 28nm non è HP, bensì HPm... Le migliorie in buona parte potrebbero essere imputate a TMSC più che a nvidia.
Fabio310
19-02-2014, 10:30
efficienza notevole... tuttavia questa scheda nvidia le prende in tutte le salse dalla R7 265 se poi consideriamo che per chi usa amd come cpu c'é un'altro bel guadagno con mantle in sviluppo..
i grafici fatti con gnuplot andrebbero PESANTEMENTE rivisti... sono confusi, con la legenda in mezzo ai dati
tuttodigitale
19-02-2014, 10:51
Nulla invece sui probabili core ARM inseriti? Ci sono in questa fascia? Qualche test di GPGPU giusto per vedere se qualcosa è cambiato per davvero o siamo sempre allineati alle performance della vecchia generazione?
1) i miglioramenti ci sono stati è innegabile, ma GCN è ancora indiscutibilmente la migliore quando si parla di prestazioni per watt.
Rispetto alla generazione precedente le prestazioni per watt sono praticamente raddoppiate. Ma non bisogna dimenticare l'enorme handicap che avevano le prime soluzioni kepler nel gpgpu rispetto alla concorrenza, e persino confrontate con le vecchie soluzioni Fermi non è che fosse tutto rose e fiori.
2) i core Arm ancora non ci sono. Se il software HSA tarda ad arrivare cosa ti fa pensare che oggi siano disponibili software in grado di sfruttare i core arm di una scheda che ancora non esiste.
Poi da quando AMD ha introdotto HyperTrasport nel lontano 2003 ho sempre visto come LA soluzione per i possibili coprocessori.
invece sono deluso invece dalla 750Ti, che va dal 5 al 10% meno rispetto alla 650Ti boost (vga che secondo nomenclatura dovrebbe sostituire) costa anche un pò troppo; a questo punto viste le prestazioni l'avrei chiamata 750 senza il suffisso Ti
Rispetto alla 650Ti ha almeno il 30% in meno di roba, consuma pur il 30% in meno e ha le stesse perfomance.
Beh, decidetevi: ha le stesse prestazioni o no? ;)
Dai grafici parrebbe avere ragione celsius100, quindi la 750 comunque sacrifica le performance per i consumi.
E se uno guarda solo alle prestazioni, effettivamente la 265 è più appetibile, costa meno e va sensibilmente di più (15% è tanto, praticamente una fascia superiore).
Ciò nonostante la 750TI raggiunge un'efficienza davvero interessante, e risulta senza dubbio la miglior scheda senza connettore di alimentazione aggiuntivo. Avrà sicuramente il suo mercato.
Dico solo che se AMD avesse ottenuto gli stessi aumenti di efficienza cosa tra il CGN v1 e il CGN v2 [...]
Alla fine la nuova serie di AMD non è altro che un refresh: hanno aggiunto alcune feature come TrueAudio, migliorato leggermente l'architettura e spinto l'asticella delle prestazioni un po' più in alto, giusto perchè i 28nm stavano durando un po' troppo e AMD aveva bisogno di qualcosa che contrastasse le top di gamma Nvidia.
Insomma, questa la considero una mezza generazione per AMD, e penso che il passo avanti lo vedremo con la prossima serie sui 20nm.
Ho idea che vedremo la prossima seria AMD non troppo in la nel tempo, non appena i 20nm saranno stabili e con buone rese.
prestazioni per W davvero notevoli, ed è un'ottimo indicatore per le schede di fascia medio-alta che a questo punto quasi sicuramente non deluderanno con queste premesse
Questo, purtroppo, è ancora da vedere e non del tutto indicativo.
Come abbiamo visto in passato, schede con la stessa architettura hanno mostrato efficienze differenti a seconda delle caratteristiche specifiche (cosa ancora più evidente se si considerano le schede mobile).
Questa 750TI secondo me è stata ottimizzata per rientrare in una certa fascia di consumi, a discapito delle prestazioni, e difatti non compete in prestazioni con la 265 che sta sulla stessa fascia di prezzo.
Ovviamente il risultato raggiunto è anche specchio di un'architettura efficiente, ma i risultati su schede mirate alle prestazioni potrebbero essere differenti.
Fabio310
19-02-2014, 11:12
50w contro 150w..
quanto sono i consumi differenti..
0.86 centesimi per 3 ore al giorno in un mese intero.. Almeno su recensioni in spagna..
quindi tutta sta fuffa per risparmiare 1 euro al mese, avere meno mantle, meno prestazioni, meno open cl.. ma almeno quando mi scatta il gioco potrei dire.. guarda che efficienza ejeje
non facciamoci fregare dal marcheting, non parliamo di 50-500watt e poi ste schede sono quasi sempre in idle nei pc..
ho sempre la senzione che quando una scheda é una cagata sparano consumi, temperature ecc.ecc. ma quel che serve a una scheda gaming é che sia veloce ed abbia il miglior rapporto prezzo/prestazioni
Raghnar-The coWolf-
19-02-2014, 11:58
60watt di consumo e niente connettori sono sempre stati il mio sogno (9600gt green, gt240, gts 450, gtx 650 liscia...), questa nuova architettura nvidia sembra davvero promettente, anche se queste 2 schede sfruttano sempre i 28nm...
non vedo l'ora di vedere le declinazioni di maxwell per il mobile, magari a 20nm come promesso :)
certo che come nome in codice nVidia potrebbe trovare qualcosa di + simpatico, specialmente per me che non ho mai amato l'elettrotecnica, 'sti nome mi ricordano troppo le sue leggi :(
ovviamente non sono un fanboy nvidia! ;)
Hanno nomi di scienziati. Tesla, Fermi, Maxwell...etc...
Comunque concordo, le prestazioni per queste potenze sono decisamente interessanti, imho una novità molto più interessante sia delle R7 che della GTX Titan Black, anche se magari ciò non si traduce in un best buy (che dipende più dalle esigenze).
Alla fine comunque vorrei far notare che con il prezzo al kWh in Italia con 30W di differenza si recuperano relativamente in fretta in 20€ (circa 1000 ore)
CrapaDiLegno
19-02-2014, 12:03
1) i miglioramenti ci sono stati è innegabile, ma GCN è ancora indiscutibilmente la migliore quando si parla di prestazioni per watt.
Rispetto alla generazione precedente le prestazioni per watt sono praticamente raddoppiate. Ma non bisogna dimenticare l'enorme handicap che avevano le prime soluzioni kepler nel gpgpu rispetto alla concorrenza, e persino confrontate con le vecchie soluzioni Fermi non è che fosse tutto rose e fiori.
2) i core Arm ancora non ci sono. Se il software HSA tarda ad arrivare cosa ti fa pensare che oggi siano disponibili software in grado di sfruttare i core arm di una scheda che ancora non esiste.
Poi da quando AMD ha introdotto HyperTrasport nel lontano 2003 ho sempre visto come LA soluzione per i possibili coprocessori.
Come le misuri le performace per watt? Con le applicazioni OpenCL? Perché se non erro Kepler per ora mantiene il record di GFlops/W, anche rispetto alle Xeon Phi di Intel che sono costruite con un PP più avanzato.
Se poi i tuoi riferimenti sono SiSandra, be', sì, AMD ha un vantaggio infinito.
Per quanto riguarda i core ARM, anche a te è sfuggito un piccolo particolare: nvidia non è AMD. nvidia non aspetta che terze parti sviluppino soluzioni per lei. nvidia sviluppa quasi tutto in casa, il che vuol dire che se mette dei core ARM dentro le sue GPU ha anche il piano di sviluppo SW per supportarli. Le librerie CUDA saranno sicuramentre aggiornate per sfruttarli.
Ora io non so cosa possono fare questi core ARM né come verranno sfruttati, ma non è detto che non possano aiutare a dare un boost anche in campo puramente di accelerazione 3D sgravando la CPU e diminuendo di brutto le latenze, quindi "basterebbe" aggiornare anche i driver DirectX.
'sto miracoloso (quanto fantomatico) HSA ha veramente mandato in corto circuito i neuroni di molti, mi sa.
50w contro 150w..
quanto sono i consumi differenti..
0.86 centesimi per 3 ore al giorno in un mese intero.. Almeno su recensioni in spagna..
quindi tutta sta fuffa per risparmiare 1 euro al mese, avere meno mantle, meno prestazioni, meno open cl.. ma almeno quando mi scatta il gioco potrei dire.. guarda che efficienza ejeje
non facciamoci fregare dal marcheting, non parliamo di 50-500watt e poi ste schede sono quasi sempre in idle nei pc..
ho sempre la senzione che quando una scheda é una cagata sparano consumi, temperature ecc.ecc. ma quel che serve a una scheda gaming é che sia veloce ed abbia il miglior rapporto prezzo/prestazioni
2 cose.
1) E' una scheda low end come ce ne sono sempre state. Come tutte le schede low end fa cagare se raffrontata alle mattonelle da mezzo Km quadro e 300W di consumi. Ma, per quanto tu le trovi schifosissime, le schede low end vendono come il pane e quindi vedere che con le stesse prestazioni sono passati a dimezzare i consumi senza cambiare il PP significa che non si parla di fuffa per nulla.
2) Ti sfugge il corollario dell'aumento di efficienza, sia in termini di consumi che di spazio/transistor: le GPU più grandi, che sono limitate dai consumi, a 300W potranno generare una potenza di calcolo nettamente maggiore perché potranno integrare più risorse. Oppure, a parità di performance con quelle odierne possono consumare molto meno. O (in teoria, il mercato è altra cosa) costare di meno perché realizzate con meno silicio.
Se non arrivi a comprendere queste implicazioni, non è colpa del marketing "fuffa" che tanto accusi.
La necessità del rapporto prezzo/prestazioni per una scheda gaming è un problema ricorrente che si pone solo una parte dell'utenza: quella che non arriva all'uva e si accontenta dei lamponi che crescono più in basso.
MiKeLezZ
19-02-2014, 12:20
50w contro 150w..
quanto sono i consumi differenti..
0.86 centesimi per 3 ore al giorno in un mese intero.. Almeno su recensioni in spagna..
quindi tutta sta fuffa per risparmiare 1 euro al mese, avere meno mantle, meno prestazioni, meno open cl.. ma almeno quando mi scatta il gioco potrei dire.. guarda che efficienza ejeje
non facciamoci fregare dal marcheting, non parliamo di 50-500watt e poi ste schede sono quasi sempre in idle nei pc..
ho sempre la senzione che quando una scheda é una cagata sparano consumi, temperature ecc.ecc. ma quel che serve a una scheda gaming é che sia veloce ed abbia il miglior rapporto prezzo/prestazioniIo guardo la sostanza, sono schede per videogiocare. Qua ci sta una scheda che non da problemi con i giochi, ha driver stabili, consuma poco. Quindi il risparmio di prezzo non me lo brucio a farmi il fegato marcio con malfunzionamenti o in corrente. L'hai mai sentito il detto chi più spende meno spende.
p.s. 3 ore per 365 giorni fa 22 euro all'anno. L'eventuale differenza di prezzo te la ripaghi tutta e dopo ci guadagni pure. Inoltre meno consumi significa anche meno calore, più durata e più silenziosità.
tuttodigitale
19-02-2014, 12:44
voci di corridorio insistono nel dire che il PP adottato pur essendo a 28nm non è HP, bensì HPm...
a dare maggior peso a queste informazioni ci sono diversi fattori:
1) l'architettura maxwell ha una complessità maggiore di quella kepler.
il guadagno reale delle prestazioni per transistor è pari al 13%..nulla di incredibile, siamo ai livelli del passaggio da vliw-5 a vliw4 per intenderci.
2) nvidia è riuscita ad infilare la bellezza di 12,6 Mtransistor/mmq contro gli 11,2/mmq. siamo a +12%.
3) quindi le prestazioni per mmq sono salite di un fattore non trascurabile, +27%
4) allo stesso tempo il consumo per transistor si è ridotto drasticamente: -40%
sono sicuro al 99% che è cambiato il PP...
Rispetto alla 650Ti ha almeno il 30% in meno di roba, consuma pur il 30% in meno e ha le stesse perfomance. I
quanto sei bravo prendi la 650TI che ha un chip per buona parte disabilitato e prendi le caratteristiche del chip al completo e non le sue prestazioni, che sono quelle fornite dalla 660.
Ora è vero che gk106 ha il 35% più risorse(transistor) di un gm107, ma le prestazioni non sono esattamente le stesse (+23%)
come dicevo poco sopra...il miglioramento c'è stato ma non è incredibile se non guardiamo i consumi.
CrapaDiLegno
19-02-2014, 13:15
quanto sei bravo prendi la 650TI che ha un chip per buona parte disabilitato e prendi le caratteristiche del chip al completo e non le sue prestazioni, che sono quelle fornite dalla 660.
Ora è vero che gk106 ha il 35% più risorse(transistor) di un gm107, ma le prestazioni non sono esattamente le stesse (+23%)
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_750_Ti/images/perfrel.gif
come dicevo poco sopra...il miglioramento c'è stato ma non è incredibile se non guardiamo i consumi.
Sì lo so che sono bravo, tu invece un po' meno perché mixi tutto secondo come ti pare e piace.
Se fai una statistica sulle prestazioni pure, che un chip sia castrato o meno poco conta: fai i conti di quante risorse uno ha e quante ne ha l'altro e fai il rapporto.
Se fai un'analisi di consumi hai ragione sul fatto che il GK106 in considerazione è castrato e quindi non è il massimo della comparazione. Ma le 650Ti/Ti Boost consumano comunque meno delle 660 con Gk106 completo e il 23% di performance in più è ottenuto con oltre il doppio del TDP e il 50% in più di silicio.
Se guardo ai risultati concreti, oggi ho le stesse prestazioni di una 650 Ti Boost con quasi metà consumi e il risparmio del 50% di area.
Se faccio un paragone con il 660 completo ed estrapolo per le mattonelle più grandi (cosa che non dico sia vera, ma comunque è un'operazione più che lecita e fattibile) posso prevedere una mattonella da 550mm^2 (grande quindi come il GK110, GF110, GF110 e il G200) che contiene più di 3000 shader in 24 SMM (non più 15), una capacità di calcolo più che tripla (vedere i test GPGPU di questa 750Ti) e con un consumo di circa 150W. Il tutto usando i 28nm (che siano una nuova versione o meno poco conta).
A me sembra un miglioramento notevole, certamente migliore di quello che è stato proposto con Hawaii che non ha modificato nulla in termini di efficienza ma è stato solo una nuova mattonella con tanti shader (e Watt) in più. Se i prossimi mesi saranno davvero caratterizzati dal mantenimento del processo produttivo a 28nm, mi sa che "questo non incredibile vantaggio" come lo hai definito tu porterà grandissimi grattacapi a AMD. A meno che questa non abbia in serbo qualcosa d'altro che per ora ha tenuto super segretissimo o che nvidia non voglia fare i più grandi chip Maxwell a 28nm per evitare costi aggiuntivi.
Solo il futuro ce lo dirà, ma non neghiamo che questi "insignificanti vantaggi" aprono diversi scenari che non si sospettavano prima della presentazione di questo GM107.
narnonet
19-02-2014, 13:36
Domandina ina ina...
Se montassi la GTX 750ti 2GB su di un E8400 con 8Gb di ram con monitor da 1680x1050, dite che sarebbe cpu limited oppure potrebbe essere un upgrade sensato?
Nel caso che VGA proponete voi che non sia cpu limited con spesa massimo di 150€?
Ciao e Grazie
homoinformatico
19-02-2014, 13:43
per me che gioco a 1920*1080 la scelta dovrebbe cadere sulla 750ti dato che consuma meno corrente ed è meno rumorosa e le prestazioni sono quasi uguali e la differenza di 10-15 euro contano molto meno rispetto al risparmio sulla bolletta
PS : io adesso ho una nvidia 460gtx ne vale la pena fare il cambio ?
dato che non ti ha risposto nessuno cercherò di darti qualche indicazione:
nel treddo dell'ungine heaven un tizio ha benchmarcato una 650 ti ottenendo 461 (mi pare). Con le stesse opzioni facevo 379 con la gtx 460 da un giga. Inoltre un po' di tempo fa ho montato un pc ad un amico e gli ho messo la 650ti.
Sebbene con un Pentium dual core (ivy bridge) la sensazione era che la sua scheda andasse un poco meglio della mia.
A spanne non credo ci siano più del 30% di prestazioni fra 750ti e 460gtx da un giga. in più e sempre a spanne penso che quel 30% non siano tanto nella potenza "bruta" quanto nel supporto per le puttanate nuove (leggasi che a spanne i giochi non nuovissimi probabilmente avranno una differenza ancora inferiore). Probabilmente va un poco peggio di una 560ti.
Per cui se dovessi cambiare gpu (e volessi restare con nvidia) terrei d'occhio il mercatino per vedere se qualcuno vende una 660ti o una 760 a buon prezzo.
il tutto sempre secondo me
tuttodigitale
19-02-2014, 13:44
Come le misuri le performace per watt? Con le applicazioni OpenCL? Perché se non erro Kepler per ora mantiene il record di GFlops/W, anche rispetto alle Xeon Phi di Intel che sono costruite con un PP più avanzato..
con le applicazioni e i benchmark opencl, mi sembra ovvio. I GFLOPS teorici sono per l'appunto teorici.
Per quanto riguarda i core ARM, anche a te è sfuggito un piccolo particolare: nvidia non è AMD.
:eek:
Come le misuri le performace per watt? Con le applicazioni OpenCL? Perché se non erro Kepler per ora mantiene il record di GFlops/W, anche rispetto alle Xeon Phi di Intel che sono costruite con un PP più avanzato..
con le applicazioni e i benchmark opencl, mi sembra ovvio. I GFLOPS teorici sono per l'appunto teorici.
nvidia non aspetta che terze parti sviluppino soluzioni per lei.
Dimenticavo che nvidia è anche un grande produttore di cpu (o era AMD?)
nvidia sviluppa quasi tutto in casa
tranne una parte essenziale del prossimo HW?
[
il che vuol dire che se mette dei core ARM dentro le sue GPU ha anche il piano di sviluppo SW per supportarli. Le librerie CUDA saranno sicuramentre aggiornate per sfruttarli.
certo se mette dei core non progettati da lei, è chiaro che ha un piano per sfruttarli, figurati se si mettesse a progettare gpu e cpu proprio con le intenzioni di farle lavorare insieme.
Le librerie CUDA saranno sicuramentre aggiornate per sfruttarli.
ci mancherebbe altro...Compilatori compatibili con HSA sono disponibili già da 2-3 mesi, ma il software necessita di tempo per essere creato.
Certe uscite
Ora io non so cosa possono fare questi core ARM né come verranno sfruttati,
è HSA su PCI express, niente di più niente di meno.
ma non è detto che non possano aiutare a dare un boost anche in campo puramente di accelerazione 3D sgravando la CPU e diminuendo di brutto le latenze,
Abbiamo discusso di questa assurda possibilità.
E' assurda perchè nonostante kaveri abbia di fatto annullato la disparià di trattamento tra cpu e gpu, le latenze delle dx11 rimangono....
quindi "basterebbe" aggiornare anche i driver DirectX.
'sto miracoloso (quanto fantomatico) HSA ha veramente mandato in corto circuito i neuroni di molti, mi sa.
ricordo che le latenze con le directx 10 sono state ridotte dell'ordine del 30%...nonostante ciò si è continuato per anni a fare giochi dx9, perchè le console erano compatibili con queste librerie. Quindi solo con la prossima generazione di console (2022?) si potrà parlare concretamente di nuove librerie...
PS parlare in quel modo di hUMA, quando è la tecnologia più innovativa in campo informatico degli ultimi 15 anni.....
tuttodigitale
19-02-2014, 14:08
Ma le 650Ti/Ti Boost consumano comunque meno delle 660 con Gk106 completo e il 23% di performance in più è ottenuto con oltre il doppio del TDP e il 50% in più di silicio.
sui consumi ho fatto un discorso a parte
e sulle prestazioni per mmq ho detto questo
le prestazioni per mmq sono salite di un fattore non trascurabile, +27%
cosa ho detto di diverso...:rolleyes:
Sì lo so che sono bravo, tu invece un po' meno perché mixi tutto secondo come ti pare e piace.
Se fai una statistica sulle prestazioni pure, che un chip sia castrato o meno poco conta: fai i conti di quante risorse uno ha e quante ne ha l'altro e fai il rapporto.
per risorse io intendo i transistor, e di solito questo valore è riferito al chip intero..
Tu parli di core, ma ometti il fatto che maxwell necessiti di un +32% di transistor in più a parità di forza bruta.
Ti ho già detto che con il passaggio da kepler a maxwell le prestazioni a parità di risorse (transistor) a parità di clock sono aumentate del 13%. Punto.
A me sembra un miglioramento notevole....
su questo non c'è dubbio, ma come ho detto più su è probabile che sia dovuto al PP usato e non a Maxwell che migliora le prestazioni per transistor solo del 13%...
Quello che voglio dirti è se il singolo transistor consuma la metà mi riesce difficile pensare che sia merito dell'architettura...
Non è mai successo. IMHO, il PP è cambiato anche se il nanometraggio è rimasto invariato.
La cosa più divertente di tutto questo è che queste nuove schede di fascia bassa permettono OGGI di raggiungere la grafica delle console nex gen(qui si paral di xbox ma la PS4 non farebbe certo meglio):
http://www.gamespot.com/articles/149-nvidia-gtx-750-ti-unveiled-plays-titanfall-better-than-xbox-one/1100-6417813/
-_-
La grafica dei giochi resterà zavorrata a grafica "non al passo coi tempi" ancora per anni e anni.
CrapaDiLegno
19-02-2014, 14:38
con le applicazioni e i benchmark opencl, mi sembra ovvio. I GFLOPS teorici sono per l'appunto teorici.
:eek:
con le applicazioni e i benchmark opencl, mi sembra ovvio. I GFLOPS teorici sono per l'appunto teorici.
Dimenticavo che nvidia è anche un grande produttore di cpu (o era AMD?)
tranne una parte essenziale del prossimo HW?
[
certo se mette dei core non progettati da lei, è chiaro che ha un piano per sfruttarli, figurati se si mettesse a progettare gpu e cpu proprio con le intenzioni di farle lavorare insieme.
ci mancherebbe altro...Compilatori compatibili con HSA sono disponibili già da 2-3 mesi, ma il software necessita di tempo per essere creato.
Certe uscite
è HSA su PCI express, niente di più niente di meno.
Abbiamo discusso di questa assurda possibilità.
E' assurda perchè nonostante kaveri abbia di fatto annullato la disparià di trattamento tra cpu e gpu, le latenze delle dx11 rimangono....
ricordo che le latenze con le directx 10 sono state ridotte dell'ordine del 30%...nonostante ciò si è continuato per anni a fare giochi dx9, perchè le console erano compatibili con queste librerie. Quindi solo con la prossima generazione di console (2022?) si potrà parlare concretamente di nuove librerie...
PS parlare in quel modo di hUMA, quando è la tecnologia più innovativa in campo informatico degli ultimi 15 anni.....
Huh? Non ti capisco davvero.
I core ARM sono ARM. Che vuol dire che se non li progetta nvidia non li può sfruttare? A parte il fatto che non sai se sono core standard o rifatti da nvidia per essere più efficienti in questo o quel campo (consumi/area/prestazioni) o integrano estensioni particolari per fare lavori particolari (ARM supporta nativamente unità di calcolo esterne di diversa natura, lo sapevi?).
Detto questo, ancora non ho capito cosa non ti è chiaro che se ci sono potranno essere sfruttati da nvidia direttamente e non lasciate a carico del programmatore tramite accesso diretto. Cioè, è possibile che siano messe a disposizione anche esternamente alla GPU, ma non è un dogma, e come per quasi tutto quello che c'è nella GPU potrebbero benissimo essere delle unità che si occupano di fare compiti in maniera totalmente autonoma a cui il programmatore non può avere accesso diretto (forse il programmatore ha accesso all'unità che fa lo scheduler dei thread all'interno della GPU?).
HSA è una cosa, integrare delle unità di calcolo seriale in un dispositivo che per natura è solo parallelo è un'altra cosa.
Ritorno a dire quindi che non sapendo come sono integrati e cosa facciano di preciso è un po' dura inventarsi che solo tramite HSA su PCI siano sfruttabili.
O che siano né più ne meno HSA su PCI. HSA qui non c'entra un bel niente.
Certamente non saranno unità messe lì completamente staccate dal resto della GPU, come appunto fossero dei coprocessori montati su un'altra scheda PCI. Quali vantaggi darebbero?
Poi fai confusione tra HSA e hUMA. Sono 2 cose distinte. HSA è fuffa di un'azienda che non ha altro da offrire per tentare di recuperare il gap che si è creato tra lei e la concorrenza. E' un modo di dire, noi abbiamo questa possiblità, non valutando il fatto che ha utilità quasi pari a zero. Se la mattina bevi latte e marketing, allora ti ingrassi bene di queste cose. Se invece la mattina insieme al latte studi un po' di informatica (generalmente parlando) sai che HSA applicata alla sola GPU copre una quantità di soluzioni pari a quelle delle tue dita di una mano. E sono pressoché inutili sui PC consumer.
Qui si parla di usare le capacità di calcolo seriale di uno (o più componenti, non so quanti siano questi core che saranno integrati né che potenza/capacità avranno) per aiutare un altro componente che esegue istruzioni in maniera efficiente solo parallelamente.
Far fare un salto o prendere una decisione di flusso ad una GPU è un trauma. Non c'è hUMA (che non è un'invenzione AMD e quindi non è la più grande innovazione degli ultimi 15 anni, al massimo è un ritorno al passato dimenticato dal marketing di Intel e di AMD stessa che in tutto questo tempo si sono concentrate a fare architetture monolitiche general purpose per risolvere tutto il pensabile in maniera estremamente inefficente) o HSA (pure questa una nuova etichetta appiccicata a qualcosa che esiste da tempo immemore) che tenga in questo caso. Le GPU fino a ieri erano fatte così e quei problemi hanno.
Rivedere le capacità intrinseche delle architetture estremamente (ed esclusivamente) parallele è un passo in avanti da quando si è deciso di usare le unità grafiche per fare calcoli (che avveniva ben prima di R600, G80, CUDA, o OpenCL in maniera estremamente inefficiente).
Quali siano i reali vantaggi che porterà questa innovazione ancora non lo sappiamo, ma ripeto, non è questione di usare i core ARM (o qualsiasi altra risorsa aggiunta) tramite esplicito codice HSA ma di fare in modo che queste unità diano automaticamente una mano agli SMM quando questi hanno evidenti problemi ad eseguire parti di codice (o di un algoritmo) in maniera efficiente.
Il fatto che tutti parlano di HSA come fosse la panacea di tutti i mali e invece declassino queste innovazioni come una (inutile) parte di HSA mi sembra un'assurdità. O non si è capito nulla, o si sta cercando di includere queste innvazioni nell'inutilità di HSA per come è stata presentata fino ad oggi.
Ebbene, non credo che nvidia abbia lavorato tutti questi anni sul progetto Denver per aggiungere dei core ARM semplicemente collegati ad un bus PCI per dire: eccoli a voi, fatene quello che volete, trovate voi il modo di sfruttarli con le altre unità di calcolo. Non ci avrebbe messo così tanto tempo e non lo avrebbe sicuramente fatto se non fosse stata sicura che questa aggiunta porta davvero ad aumentare l'efficienza della sua architettura.
I benchmark che portano Kepler ad avere il migliore rapporto prestazini/Watt sono quelli usati sui server HPC che sono tutt'altra cosa rispetto a quelli fatti in OpenCL e dove le GPU sono usate per ben altra cosa che fare coin mining.
Per quello ho parlato di confronto anche con la Xeon Phi.
Ma vabbè, torna pure ad aspettare che HSA faccia qualcosa di utile mentre il resto dell'umanità nel frattempo gode dei risultati delle ricerche fatte con qualcosa che funziona per davvero.
La cosa più divertente di tutto questo è che queste nuove schede di fascia bassa permettono OGGI di raggiungere la grafica delle console nex gen(qui si paral di xbox ma la PS4 non farebbe certo meglio):
http://www.gamespot.com/articles/149-nvidia-gtx-750-ti-unveiled-plays-titanfall-better-than-xbox-one/1100-6417813/
-_-
La grafica dei giochi resterà zavorrata a grafica "non al passo coi tempi" ancora per anni e anni.
Aspetta a parlare, vediamo i giochi sviluppati con engine nati per console, non porting e affini. Gia The Order per PS4 fa vedere cose assurde... ;)
CrapaDiLegno
19-02-2014, 15:03
sui consumi ho fatto un discorso a parte
e sulle prestazioni per mmq ho detto questo
cosa ho detto di diverso...:rolleyes:
per risorse io intendo i transistor, e di solito questo valore è riferito al chip intero..
Tu parli di core, ma ometti il fatto che maxwell necessiti di un +32% di transistor in più a parità di forza bruta.
Ti ho già detto che con il passaggio da kepler a maxwell le prestazioni a parità di risorse (transistor) a parità di clock sono aumentate del 13%. Punto.
su questo non c'è dubbio, ma come ho detto più su è probabile che sia dovuto al PP usato e non a Maxwell che migliora le prestazioni per transistor solo del 13%...
Quello che voglio dirti è se il singolo transistor consuma la metà mi riesce difficile pensare che sia merito dell'architettura...
Non è mai successo. IMHO, il PP è cambiato anche se il nanometraggio è rimasto invariato.
Oh santo cielo, quano è difficile farsi capire da qualcuno che non vuole capire.
ll tuo 13% è puramente teorico (proprio tu che parli di cose teoriche vs quelle reali). Io vedo una GPU che monta il 20% in più di shader, il 50% in più di ROP, il 60% in più di TMU e ha un bus il 50% più grande per una banda complessiva superiore del 70% che riesce a malapena stare sopra il GM107. (non faccio confronti tra le dimensioni perché come hai ben detto uno è un chip castrato, mentre l'altro no). Lascio a te il compito a casa di fare il confronto con il GK106 completo e il suo 23% in più di performace.
Alcuni bench GPGPU mostrano che la nuova GPU va almeno il doppio rispetto al 660 completo. E consuma la metà.
Di cosa stiamo parlando? Del 13% sulla carta con il calcolo transistor/spazio o del fatto che tutta la nuova architettura a parità di prestazioni fa risparmiare il 33% del silicio e dimezza i consumi?
Prendi un GK110, applicaci la stessa equazione che ti porta dal GK107 al GM107 e vedi cosa ottieni. Che poi fai il finto tonto e dici, si ma vabbè, nulla di che... cosa ha guadagnato AMD 2 mesi fa passando da GCN1 a GCN2 (Tahiti vs Hawaii)? Nulla, solo più unità di calcolo in più spazio per più consumi, tutto proprozionalmente.
Qui si dice che se va male si hanno il 50% in più di prestazioni sulla stessa area con consumi quasi dimezzati usando lo stesso PP.. cioè più di quanto AMD abbia fatto tra VLIW e GCN con l'aiuto di uno shrinking e si viene a dire: ma no, non è poi così una grande cosa, tutto nella normalità.
Ebbena, come detto, a meno che AMD non abbia in serbo qualcosa di nascosto e di analogo, questo "piccolo" aumento di efficienza diventerà un grande problema per lei.
Tutti che elogiano Mantle che porterà presunti vantaggi in uno o due titoli di punta e si gira la testa quando si vede questo tipo di performace che andranno a influire su tutti i titoli non necessariamente basati su un singolo motore ottimizzato per una particolare architettura.
E non abbiamo ancora visto cosa ci riservano le future GPU con i core ARM integrati, ma per correttezza, probabilmente quelli li vedremo tra molto tempo, al pari di quando vedremo queta benedetta API MAntle maturare per rendere reale almeno in parte quello che è stato promesso.
carlottoIIx6
19-02-2014, 16:53
Non riesco a capire se lo fai apposta o la pensi realmente così? Cosa c'entra con il mobile l'architettura descritta nell'articolo? Cioè aumentano la cache per il mobile? Sfruttano meglio i blocchi per il mobile? E poi se qualcuno ha fatto il massimo con i 28nm quella è nVidia, ti ricordo che ha comunque un chip più grosso che anche attivando tutti i moduli consuma meno e va di più di casa AMD.
http://www.anandtech.com/show/7764/the-nvidia-geforce-gtx-750-ti-and-gtx-750-review-maxwell
"What is that fundamental shift? As we found out back at NVIDIA’s CES 2014 press conference, Maxwell is the first NVIDIA GPU that started out as a “mobile first” design, marking a significant change in NVIDIA’s product design philosophy. "
come vedi non sono io a dirlo, ma nvidia stessa, che sta facendo convergere tegra k1 a maxwell, e quindi avere un tutto uno.
che nvidia abbia fatto bene lo so, ma mi chiedo se i pressi siano dovuti alle dimensioni del cip o se piuttosto ai costi di proggetazione, perché comunque li vendono più cari.
tuttodigitale
19-02-2014, 17:48
Oh santo cielo, quano è difficile farsi capire da qualcuno che non vuole capire.
ll tuo 13% è puramente teorico (proprio tu che parli di cose teoriche vs quelle reali). Io vedo una GPU che monta il 20% in più di shader, il 50% in più di ROP, il 60% in più di TMU e ha un bus il 50% più grande per una banda complessiva superiore del 70% che riesce a malapena stare sopra il GM107. (non faccio confronti tra le dimensioni perché come hai ben detto uno è un chip castrato, mentre l'altro no).
sei stupido o ci fai?
Non ti è venuto in mente che per avere maggiori prestazioni per core in maxwell, nvidia è dovuta rincorrere ad un numero maggiore di transistor a shader: +32% vedi gk107 vs gm107.
Tutti i numeri che hai sparato sopra dicono solo che la nuova architettura usa maggiormente le risorse a disposizione, punto.
Ho fatto un calcolo veloce ed è venuto fuori che a parità di transistor maxwell è più veloce del 13% nel gaming.
Non è tanto, ma è pur sempre un miglioramento tangibile.
Alcuni bench GPGPU mostrano che la nuova GPU va almeno il doppio rispetto al 660 completo. E consuma la metà.
mi sembra di aver affermato che i miglioramenti ci sono stati.
Ma è divertente il fatto che continui ad omettere la superiorià di gcn anche nei confronti di maxwell
Qui si dice che se va male si hanno il 50% in più di prestazioni sulla stessa area con consumi quasi dimezzati usando lo stesso PP.. cioè più di quanto AMD abbia fatto tra VLIW e GCN con l'aiuto di uno shrinking e si viene a dire: ma no, non è poi così una grande cosa, tutto nella normalità.
Ebbena, come detto, a meno che AMD non abbia in serbo qualcosa di nascosto e di analogo, questo "piccolo" aumento di efficienza diventerà un grande problema per lei.
+27% di prestazioni per mmq diventano magicamente +50% per i fanboy.
quello che mi lascia interdetto è proprio il dimezzamento o quasi del consumo...come ha fatto nvidia a fare consumare ogni singolo transistor la metà...
Tu continui a sottolineare che sta usando i 28nm HP, ma più fonti parlano di 28nm HPm...quel che è certo è che nvidia non ha smentito.
tuttodigitale
19-02-2014, 17:49
Huh? Non ti capisco davvero.
sono stato chiarissimo.
.
I core ARM sono ARM. Che vuol dire che se non li progetta nvidia non li può sfruttare?
ho detto questo? Mi sembra di no.
Ho semplicemente ironizzato sul fatto, che tu sei convinto che nvidia voglia sfruttare cpu più di quanto voglia AMD la cpu l'ha progettato proprio tenendo in mente l'APU.
A parte il fatto che non sai se sono core standard o rifatti da nvidia per essere più efficienti in questo o quel campo (consumi/area/prestazioni) o integrano estensioni particolari per fare lavori particolari (ARM supporta nativamente unità di calcolo esterne di diversa natura, lo sapevi?).
Tu metti in dubbio che AMD abbia messo le mani su BD (8 anni) più di quanto nvidia abbia avuto tempo di mettere il suo know-now in un architettura relativamente giovane e soprattutto non progettata tenendo conto delle esigenze della gpu nel compute.
Cioè, è possibile che siano messe a disposizione anche esternamente alla GPU, ma non è un dogma, e come per quasi tutto quello che c'è nella GPU potrebbero benissimo essere delle unità che si occupano di fare compiti in maniera totalmente autonoma a cui il programmatore non può avere accesso diretto (forse il programmatore ha accesso all'unità che fa lo scheduler dei thread all'interno della GPU?).
HSA è una cosa, integrare delle unità di calcolo seriale in un dispositivo che per natura è solo parallelo è un'altra cosa.
Non ho capito una mazza, giuro.
E comunque HSA non serve per integrare delle unità di calcolo seriale (per quanto un sistema sulle pipeline possa essere definito tale), ma di far dialogare Compute Core di natura diversa senza nessun livello gerarchico stabilito a priori.
Far fare un salto o prendere una decisione di flusso ad una GPU è un trauma. Non c'è hUMA (che non è un'invenzione AMD e quindi non è la più grande innovazione degli ultimi 15 anni, al massimo è un ritorno al passato dimenticato dal marketing di Intel e di AMD stessa che in tutto questo tempo si sono concentrate a fare architetture monolitiche general purpose per risolvere tutto il pensabile in maniera estremamente inefficente)
hUMA è una invenzione di AMD. Non mi risulta che nessun sistema gpu-cpu, anche console (molti spesso parlano impropriamente di xbox 360) dove la gpu abbia un'interfaccia coerente con il MC...
Anzi dagli schemi a blocchi che ho visto fino a oggi, sembrerebbe che persino xbox one abbia una gestione della memoria ereditata da Richland/kabini...
Il fatto che tutti parlano di HSA come fosse la panacea di tutti i mali e invece declassino queste innovazioni come una (inutile) parte di HSA mi sembra un'assurdità. O non si è capito nulla, o si sta cercando di includere queste innvazioni nell'inutilità di HSA per come è stata presentata fino ad oggi.
HSA è fondamentale per sfruttare la gpu ad un più ampio raggio. Ti invito di andare sul thread di kaveri, visto che dell'argomento sai meno di zero.
Ebbene, non credo che nvidia abbia lavorato tutti questi anni sul progetto Denver per aggiungere dei core ARM semplicemente collegati ad un bus PCI per dire: eccoli a voi, fatene quello che volete, trovate voi il modo di sfruttarli con le altre unità di calcolo. Non ci avrebbe messo così tanto tempo e non lo avrebbe sicuramente fatto se non fosse stata sicura che questa aggiunta porta davvero ad aumentare l'efficienza della sua architettura.
ma aumentare l'efficienza di cosa? Nel compute si. Serve per ridurre i dialoghi con la cpu principale.
PS mi scuso in anticipo il pessimo italiano
CrapaDiLegno
19-02-2014, 18:36
Quasi ci rinuncio, tanto poco cambia tra quello che ci diciamo.
sono stato chiarissimo.
ho detto questo? Mi sembra di no.
Ho semplicemente ironizzato sul fatto, che tu sei convinto che nvidia voglia sfruttare cpu più di quanto voglia AMD la cpu l'ha progettato proprio tenendo in mente l'APU.
Tu metti in dubbio che AMD abbia messo le mani su BD (8 anni) più di quanto nvidia abbia avuto tempo di mettere il suo know-now in un architettura relativamente giovane e soprattutto non progettata tenendo conto delle esigenze della gpu nel compute.
Io metto in dubbio che la combinazione CPU+GPU con pochi shader e banda limitata di AMD possa essere meglio di CPU+GPU da migliaia di shader + banda enorme + altre unità di calcolo seriale integrate nella CPU con compiti specifici (e non necessariamente general purpose come i core x86 nelle APU).[/quote]
ti invito a spiegarlo in italiano. Non ho capito una mazza, giuro.
E comunque HSA non serve per integrare delle unità di calcolo seriale (per quanto un sistema sulle pipeline possa essere definito tale), ma di far dialogare Compute Core di natura diversa senza nessun livello gerarchico stabilito a priori.
No, non lo rispiego. Non è un problema mio.
Infatti quello che intendevo è che non è detto che nella soluzione nvidia non vi dsia una gerarchia prestabilita per accedere ai core ARM (sempre che si possa fare "da fuori" liberamente o nvidia te lo permetta tramite i suoi driver).
hUMA è una invenzione di AMD. Non mi risulta che nessun sistema gpu-cpu, anche console (molti spesso parlano impropriamente di xbox 360) dove la gpu abbia un'interfaccia coerente con il MC...
Anzi dagli schemi a blocchi che ho visto fino a oggi, sembrerebbe che persino xbox one abbia una gestione della memoria ereditata da Richland/kabini...
La parola hUMA sarà una invenzione AMD. Il concveto di memoria condivisa tra CPU e coprocessori ce l'aveva l'amiga nel 1985. Fai conto degli anni che sono passati prima che qualcuno rispolverasse l'idea che è stata la base di uno degli home computer migliori della storia e com più innovazioni di quante se ne siano viste dall'85 a oggi.
Ora scopriamo che AMD è pure "inventrice" della memoria condivisa... AMD come Apple?
HSA è fondamentale per sfruttare la gpu ad un più ampio raggio. Ti invito di andare sul thread di kaveri, visto che dell'argomento sai meno di zero.
A più ampio raggio? La GPU fa quello che può fare, conti in floating point a manetta se (e ripeto se) si è in grado di creare un algoritmo super parallelizzato e per una quantità di dati sufficiente per nascondere le latenze (che pure le APU con HUMA e tutto quello che vuoi metterci hanno).
Per tutto il resto a cui non ho risposto alzo bandiera bianca.
Ciao, e buon HSA.
spero la 265 tragga vantaggio da mantle
questa 750ti è ottima, poco rumore, poco consumo e poco calore
la differenza di frames non mi fa pensare ad una differenza rilevante, dove non giochi con una - o dove giochi male -, non giochi con nemmeno con l'altra
MiKeLezZ
19-02-2014, 19:12
Domandina ina ina...
Se montassi la GTX 750ti 2GB su di un E8400 con 8Gb di ram con monitor da 1680x1050, dite che sarebbe cpu limited oppure potrebbe essere un upgrade sensato?
Nel caso che VGA proponete voi che non sia cpu limited con spesa massimo di 150€?
Ciao e GrazieDai non fare battute... e smettila di leggere i thread di "sfegatati per l'overclock se non c'ho il tostapane a 5GHz neppure mi faccio la cena"... Con la stessa CPU e con risoluzione maggiore (1080p) ci uso una GTX460 che è il 20% più potente
L'acquisto mi pare sensato, anche se personalmente risparmierei i soldi per un bel monitor 1080p e una ipotetica 860 da farsi questa estate così da essere a posto per anni pure con tutti i vari porting da xbox one e ps4
Ale55andr0
19-02-2014, 19:14
Gia The Order per PS4 fa vedere cose assurde... ;)
con un fottio di aliasing, già la scena in cui prendono il "bazooka" dalla cassa mostra tutti tremolii e seghettii che fanno girare le balle, almeno a me, i 1080p con AA COME SI DEVE resteranno appannaggio di pochissimi giochi, la potenza bruta non la si tira fuori per miracolo, non c'è nulla da fare, queste console sono nate già morte con un hardware di livello semplicemente ridicolo
tuttodigitale
20-02-2014, 00:07
Io metto in dubbio che la combinazione CPU+GPU con pochi shader e banda limitata di AMD possa essere meglio di CPU+GPU da migliaia di shader + banda enorme + altre unità di calcolo seriale integrate nella CPU con compiti specifici (e non necessariamente general purpose come i core x86 nelle APU).[/QUOTE]
ma cosa ti fa pensare che un apu sbilanciata lato cpu non possa essere usata in sinergia con un altra sbilanciata lato gpu?
usare una o l'altra, o persino entrambe in base al tipo di carico, è troppo difficile da pensare?
Poi come ti ho detto, imho il bus principe per i coprocessori rimane hypertrasport o il QPI, non certo il PCI express.
Quindi con un co-processore GCN affiancato all'apu o se vogliamo phi e xeon vedo davvero difficile il proseguo delle soluzioni pci express.
Non so se te ne sia accorto nel caso di Intel e nvidia parliamo di soluzioni tecniche che esistono solo sulla carta e che usciranno probabilmente quando ci saranno i primi software in grado di sfuttare appieno huma.
No, non lo rispiego. Non è un problema mio.
Infatti quello che intendevo è che non è detto che nella soluzione nvidia non vi dsia una gerarchia prestabilita per accedere ai core ARM (sempre che si possa fare "da fuori" liberamente o nvidia te lo permetta tramite i suoi driver).
Non lo rispieghi perchè semplicemente non sai entrare più in profondità e rimani nel vago
Da una parte non sai quale gerarchia avranno i core Arm rispetto agli shader (ovvio non si sa), dall'altra citi fantomatici driver in grado di ridurre l'overhead usando le stesse librerie che abbiamo oggi, ergo senza riscrivere una sola riga di codice.
Ma come ti ho detto questo è improbabile..
Se fosse così semplice AMD per le sue APU già avrebbe fatto qualcosa del genere non pensi? Mentre kaveri soffre del overhead introdotte dalle dx come una comunissina cpu omogenea...
La parola hUMA sarà una invenzione AMD. Il concveto di memoria condivisa tra CPU e coprocessori ce l'aveva l'amiga nel 1985. Fai conto degli anni che sono passati prima che qualcuno rispolverasse l'idea che è stata la base di uno degli home computer migliori della storia e com più innovazioni di quante se ne siano viste dall'85 a oggi.
Ora scopriamo che AMD è pure "inventrice" della memoria condivisa... AMD come Apple?
bello travisare le parole...ho detto che hUMA è un invenzione di AMD, poichè non si è mai visto prima di kaveri una gpu che abbia un'interfaccia verso la memoria completamente coerente. Molti su questo forum dicono, sbagliando che xbox 360 già aveva huma. Semplicemente non sanno di cosa stanno parlando. Dell'attuale generazione al 99% solo la Ps4 ha HUMA.
A più ampio raggio? La GPU fa quello che può fare, conti in floating point a manetta se (e ripeto se) si è in grado di creare un algoritmo super parallelizzato e per una quantità di dati sufficiente per nascondere le latenze (che pure le APU con HUMA e tutto quello che vuoi metterci hanno).
omg sei riuscito a dire che HSA non serve a niente....
CrapaDiLegno
20-02-2014, 10:12
Last answer
Non lo rispieghi perchè semplicemente non sai entrare più in profondità e rimani nel vago
Da una parte non sai quale gerarchia avranno i core Arm rispetto agli shader (ovvio non si sa), dall'altra citi fantomatici driver in grado di ridurre l'overhead usando le stesse librerie che abbiamo oggi, ergo senza riscrivere una sola riga di codice.
Io non ho detto "senza scrivere una linea di codice". Ritorno al post 1: nvidia non è AMD e ha dimostrato nella sua storia che il SW lo sa scrivere. E' anni che studia il progetto Denver e dubito che non abbia pensato a come sfruttarlo lei stessa, sopratutto per il mercato HPC (CUDA). Non è quindi escluso che sia in grado di fare driver DirectX che accelerino ulteriormente le funzioni grafiche.
bello travisare le parole...ho detto che hUMA è un invenzione di AMD, poichè non si è mai visto prima di kaveri una gpu che abbia un'interfaccia verso la memoria completamente coerente. Molti su questo forum dicono, sbagliando che xbox 360 già aveva huma.
Io non ho travisato un bel nulla. APU e HUMA non sono "invenzioni" di AMD come concetto. Sono l'evoluzione di concetti e implementazioni fatti 20 anni fa. Ovviamente aggiornati (e ci mancherebbe) a quello che oggi propone la tecnologia moderna. Ma la memoria condivisa tra CPU e coprocessore grafico (un tempo solo 2D ora anche con capacità 3D) è un concetto vecchio vecchio vecchio trascurato fino ad oggi.
omg sei riuscito a dire che HSA non serve a niente....
Be' dico quello che vedo: non ' l'HSA come concetto generale di calcolo distribuito su unità di calcolo specifiche che è inutile. Anzi, sono decenni che ritengo che sarebbe stato il naturale futuro, quando le CPU GP avrebbero raggiunto il limite dell'inefficienza accettabile. E' l'HSA "inventato" da AMD che è inutile. E i fatti lo dimostrano. Non ho ancora visto nulla trarne vantaggio. Nemmeno da AMD stessa. Ah, be' sì, non ho considerato che AMD il SW lo fa fare agli altri. Lei progetta solo soluzioni HW. Peccato solo che il concetto di HSA applicato ad una APU che contiene solo una GPU come "acceleratore" e dalle dimensioni e capacità ridicole rispetto alle schede discrete non porta alcun vero vantaggio tangibile in nessuna applicazione professionale. E per le 4 scemenze che si possono accelerare sui PC che hanno una striminzita APU non vale la pena spendere né soldi né tempo (almeno di non essere sovvenzionati).
Forse i videogiochi nelle console potranno trarne vantaggio per fare di più di quel che altrimenti non sarebbero in grado di fare. Forse. Rimane il fatto che le GPU discrete comunuqe sviluppano più potenza bruta di quanto una APU possa mai ottenere anche attraversa HUMA. Ecco perché i core ARM montati su una GPU discreta posso fare la vera differenza.
Comunque vedremo. Per ora vedo il deserto. Ed è anche molto grande.
tuttodigitale
20-02-2014, 14:14
grazie a te ho imparato un mucchio di cose.
1) è noto che fin dalla nascita di nvidia, il software applicativo sia in grado di sfruttare feature ancora non esistenti quando viene eseguito il seguente logo
https://lh4.googleusercontent.com/-O3XcYI3QAO0/UD26YGp2-UI/AAAAAAAAKXA/-WlJzLGqA3s/w500/nvidia-logo.jpg
con la Titan posso giocare a FIFA 98 con le directx11.
sono sconosciute le cause per le quali, AMD e gli altri rebranding hanno la necessità che il software applicativo venga ricompilato per sfruttare cazzçtine come la tessellation.
2) nvidia è diventata una software house? Quando è successo? Quale software ha prodotto, vorrei collezionarli tutti.
3) è noto che CUDA è stato sfruttato a dover già nel lontano 2007.
dopo 2 anni è uscito badaboom, con prestazioni a dir poco incredibili.
Kaveri è uscito ben un mese fa. E' scandaloso che oltre Calc o pochi altri software nessuno sfrutti l'antiquato hsa.
4) hsa è di amd. Infatti il piccolo Davide verde deve combattere una compagnia comunista che si fa chiamare all'occorrenza Oracle, e Arm. La pseudo-ISA HSA non è stata fatta dalla fondazione (pardon dalla sola AMD, non ho mai capito esattamente cosa si intendesse per Trinity, si mormora che siano tre apu in uno), ma è sempre esistita per ridurre i problemi di implementazioni delle diverse architetture, ARM e x86, che sotto mentite spoglie sono la stessa cosa.
5)La prima cpu eterogenea di AMD è completamente sbagliata. hUMA non serve a niente. Inizializzare, copiare, e terminare le variabili è il passatempo preferito della cpu e gpu. AMD cattiva riduce il tempo libero della cpu e della gpu, schiavizzandoli. HSA renderà schiavo il più piccolo frammento di silicio. CPU e GPU ribellatevi al nemico rosso prima che sia troppo tardi.
6) quel che è peggio è che tutto questo è estremamente modulare.
In base al carico di lavoro da eseguire AMD potrebbe costruire apu più o meno gpu-oriented, vedi apu di ps4 dove gli shader (pardon slave) sono addirittura 1280..
7) pensa se AMD spostasse la gpu dal socket pci express all'hyperTrasport..Finirebbe la pace nel mondo IT.
CrapaDiLegno
20-02-2014, 18:05
grazie a te ho imparato un mucchio di cose.
Hai imaprato poco, però.
1) è noto che fin dalla nascita di nvidia, il software applicativo sia in grado di sfruttare feature ancora non esistenti quando viene eseguito il seguente logo
https://lh4.googleusercontent.com/-O3XcYI3QAO0/UD26YGp2-UI/AAAAAAAAKXA/-WlJzLGqA3s/w500/nvidia-logo.jpg
con la Titan posso giocare a FIFA 98 con le directx11.
sono sconosciute le cause per le quali, AMD e gli altri rebranding hanno la necessità che il software applicativo venga ricompilato per sfruttare cazzçtine come la tessellation.
Perché nvidia quando mette una feature scrive anche il SW per usarla o la fa se c'è già il SW che va a usarla. Prprio per la tesselation, si vede quanto è stata usata l'unità tesselation iserita da AMD nelle sue GPU pre DX10.
Eppure era lì bella che pronta.
2) nvidia è diventata una software house? Quando è successo? Quale software ha prodotto, vorrei collezionarli tutti.
Stai scherzando spero. nvidia investe in sviluppo SW tanto quanto in HW. Le sue GPU sono tutte sfruttate da librerie che ha scritto e ottimizzato appositamente, sia per il professionale (che guardacaso domina con l'80% dei propri prodotti) al consumer. Dimmi una sola libreria scritta da AMD che permette di sfruttare una sola feature del loro HW.
3) è noto che CUDA è stato sfruttato a dover già nel lontano 2007.
dopo 2 anni è uscito badaboom, con prestazioni a dir poco incredibili.
Kaveri è uscito ben un mese fa. E' scandaloso che oltre Calc o pochi altri software nessuno sfrutti l'antiquato hsa.
HSA (con la sola GPU) potrà giusto fare quello... accelerare le codifiche video e poco più. Sui computer consumer quello si può fare. I calcoli scientifici non le fai con le APU.
HSA non è la scintilla che ha fatto scattare lo sviluppo SW su GPU per il quale serve del tempo. Come hai detto il SW per GPU si sviluppa da quasi 8 anni. AL massimo sarebbe stato un nuovo modo per sfruttare in maniera più proficua la GPU per compiti che già si stava sviluppando. Purtroppo la completa mancanza di soluzioni che ne traggono vantaggio indica chiaramente che il SW per GPU ha i suoi grandi problemi indipendentemente da HSA o meno. E HSA non fa molto di più per aiutare.
4) hsa è di amd. Infatti il piccolo Davide verde deve combattere una compagnia comunista che si fa chiamare all'occorrenza Oracle, e Arm. La pseudo-ISA HSA non è stata fatta dalla fondazione (pardon dalla sola AMD, non ho mai capito esattamente cosa si intendesse per Trinity, si mormora che siano tre apu in uno), ma è sempre esistita per ridurre i problemi di implementazioni delle diverse architetture, ARM e x86, che sotto mentite spoglie sono la stessa cosa.
Formalizzzare un linguaggio per ridurre i problemi di implementazione su diverse architetture non aiuta minimamente a far fare qualcosa di più all'HW.
5)La prima cpu eterogenea di AMD è completamente sbagliata. hUMA non serve a niente. Inizializzare, copiare, e terminare le variabili è il passatempo preferito della cpu e gpu. AMD cattiva riduce il tempo libero della cpu e della gpu, schiavizzandoli. HSA renderà schiavo il più piccolo frammento di silicio. CPU e GPU ribellatevi al nemico rosso prima che sia troppo tardi.
Sì, vabbè, fumiamoci l'impossibile per dire il nulla. AMD ha proposto (ancora una volta non implementato di sua sponte) un sistema per uniformare l'uso della GPU com eunità di calcolo. Bella proposta che dalla prima APU a oggi ha permesso di creare... ermm.. qualche frazione di SW che la usi ma che in verità non cambia la vita a nessuno.
6) quel che è peggio è che tutto questo è estremamente modulare.
In base al carico di lavoro da eseguire AMD potrebbe costruire apu più o meno gpu-oriented, vedi apu di ps4 dove gli shader (pardon slave) sono addirittura 1280..
Ma certo, facciamo una APU da 600W, con CPU x86 e 3000 shaders per accelerare.. aspetta... Calc!
7) pensa se AMD spostasse la gpu dal socket pci express all'hyperTrasport..Finirebbe la pace nel mondo IT.
Credo cambierebbe ben poco.
La GPU non è la panacea di tutti gli algoritmi come AMD vuole fare credere. Ha dei vantaggi enormi solo su alcuni tipi di calcolo e, sfortuna per AMD, nessuno realmente utile nel mercato consumer che è dove vende le sue APU.
Se vuoi credere che tra 2, 3, 4, 5, 10 anni qualcuno scriverà un SW UTILEin grado di usare la GPU che altrimenti con la CPU (o una CPU+GPU discreta) non si possano fare, in bocca al lupo.
Facciamo prima ad aspettare le CPU con 16 core integrati.
con un fottio di aliasing, già la scena in cui prendono il "bazooka" dalla cassa mostra tutti tremolii e seghettii che fanno girare le balle, almeno a me, i 1080p con AA COME SI DEVE resteranno appannaggio di pochissimi giochi, la potenza bruta non la si tira fuori per miracolo, non c'è nulla da fare, queste console sono nate già morte con un hardware di livello semplicemente ridicolo
Intanto va visto a video e non da youtube ;)
In secondo luogo i 4 personaggi pricipali hanno oltre 100.000 poligoni l'uno e 130 blade shape a capo, non proprio una cazzatina.
La fisica è applicata ad ogni oggetto della scena, dalle foglie, ai tessuti, ecc.
Che sono nate morte è una fantasia, da utente Pc ho sempre avuto anche console e ti assicuro che quello che riescono a far girare ha dell'incredibile.
MiKeLezZ
21-02-2014, 18:46
Che sono nate morte è una fantasia, da utente Pc ho sempre avuto anche console e ti assicuro che quello che riescono a far girare ha dell'incredibile.Ce le ho sempre avute anche io le console e quindi non mi fare ridere...
I giochi che fanno girare sono palesemente limitati e si vede come ogni volta creino barbatrucchi ridicoli per far girare quei due poligoni in croce.
Sto giocando bayonetta su X360 visto che è l'unico modo per farlo e mi vengono i brividi dalla pochezza che noto. Gli intermezzi a finto filmato è roba che pure la PS1 si vergognerebbe a fare girare (mi si sta rivoltando nella scatola).
The Order praticamente fa girare un personaggio alla volta e i modelli poligonali hanno seghettazione a gogo, tutto il resto del mondo è inesistente (mitica nebbia) e nonostante ciò non mi da alcuna idea di fotorealismo neppure sui primi piani.
Questo è praticamente un film, roba da PS6, neppure PS5: http://youtu.be/c0i88t0Kacs
Questo è praticamente un film, roba da PS6, neppure PS5: http://youtu.be/c0i88t0Kacs
ed esce anche su PS4 e ONE, vedremo i risultati ;)
Questo è praticamente un film, roba da PS6, neppure PS5: http://youtu.be/c0i88t0Kacs
Bello, ma non è la grafica "in game".
Questa è la grafica:
http://www.youtube.com/watch?annotation_id=annotation_127455723&feature=iv&src_vid=c0i88t0Kacs&v=TZ_G6XiHoUA
Bella ma non è la stessa cosa dell'altro filmato.
Ale55andr0
21-02-2014, 20:53
Intanto va visto a video e non da youtube ;)
In secondo luogo i 4 personaggi pricipali hanno oltre 100.000 poligoni l'uno e 130 blade shape a capo, non proprio una cazzatina.
La fisica è applicata ad ogni oggetto della scena, dalle foglie, ai tessuti, ecc.
Che sono nate morte è una fantasia, da utente Pc ho sempre avuto anche console e ti assicuro che quello che riescono a far girare ha dell'incredibile.
possono pure farli con 1 milione di poligoni a testa e utilizzare settordicimila fonti di luce, se mi fai vedere gli spigoli che tremolano mi fai girare i maroni uguale, anzi di più perchè in una grafica "simil fotorealistica" certe porcate spiccano di più. Tutti i giochi che ho visto sul tubo, dal vivo, mantenevano tali e quali le seghettature e le sporcature del rendering, anzi di solito la compressione video le nasconde un po' più perchè tende a rendere l'immagine più "smooth" impastando un po' il tutto, mentre dal vivo l'immagine è molto più, come dire, "sharpen", e posto che ovviamente è molto più nitida anche in senso positivo però le seghettature restano belle dritte, anzi, storte :asd: la cosa che più odio poi è quando l'AA è applicato a muzzo, cioè quando il bordo esterno di un oggetto 3d è tutto sommato accettabile, ma i particolari all'interno flickerano che è un piacere :rolleyes: :muro:
Per il resto ragà, quella del filmato non è la grafica in game di the witcher 3 sant'iddio :D, è computer grafica pre-renderizzata, 'mazza che occhio che avete :asd:
la grafica IN-game è quasi uguale a quella di the witcher 2 :fiufiu: :read:
http://i58.tinypic.com/2lk8lqu.jpg
PS: anch'io ho avuto la console microsoft (poi accantonata) e sono bene cosa ci gira e COME ci gira :) non c'è niente di incredibile (proprio no :asd: ) quando seghi via filtri, risoluzione, frame rate e texture anche in in titoli osannati come un the last of us (ovviamente PS3 in questo caso) che si vede lontano un miglio che sono frutto di compromessi e pure belli evidenti, non di miracoli di programmazione, che non esistono
questa nuova architettura maxwell è davvero promettente...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.