View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Kingdemon
25-04-2016, 10:02
Comunque speriamo a giugno di avere ste 1070/1080.. prima che l'arrivo dell'estate e le attività correlate mi facciano scendere l'hype :asd:
fraussantin
25-04-2016, 10:04
Fortunatamente ho avuto bisogno solo una volta per un alimentatore corsair rumoroso e me lo hanno cambiato senza problemi. Una settimana e avevo quello nuovo.
Sono anche molto disponibili sia via chat che via mail.
Lato imballaggio sono molto migliorati rispetto a 5-6 anni fa, adesso sono a livello amazon dei bei tempi. A parte una scatola di un ssd schiacciata e una di una mobo con un segno nelle prime spedizioni, ho ricevuto sempre tutto funzionante e perfetto. Li avevo contattai e si erano comunque resi disponibili alla sostituzione in caso di non funzionamente.
io non ho mai avuto problemi; con loro, dal 2011, ho fatto 9 ordini per un totale di circa 5000 euro; hanno solo tempi di evasione "lunghini" intorno ai 4-5 giorni.
su trovaprezzi è dato 4,5 stelle su piu di 1200 ordini.
Grazie!
scorpion73
25-04-2016, 10:21
La mia strategia sarà: all'uscita una bella coppia di 1080 da piazzare una sul pc al posto della 980 e una sul pc di mio figlio al posto della 980Ti, che andrà ad essere ricollocata sul pc a casa dei miei al posto dello sli di titan (le prime uscite).
Poi all'uscita della 1080Ti ne prenderò una che andrà al posto di una 1080, che a quel punto farà a coppia con lo SLI con l'altra sul primo pc.
Mi chiedo solo se conviene acquistare anche una ulteriore 980Ti per lo SLI sul pc a casa dei miei, ma penso che una sola già basta.
Arrow0309
25-04-2016, 10:35
La mia strategia sarà: all'uscita una bella coppia di 1080 da piazzare una sul pc al posto della 980 e una sul pc di mio figlio al posto della 980Ti, che andrà ad essere ricollocata sul pc a casa dei miei al posto dello sli di titan (le prime uscite).
Poi all'uscita della 1080Ti ne prenderò una che andrà al posto di una 1080, che a quel punto farà a coppia con lo SLI con l'altra sul primo pc.
Mi chiedo solo se conviene acquistare anche una ulteriore 980Ti per lo SLI sul pc a casa dei miei, ma penso che una sola già basta.
Ma giocano pesantemente i tuoi? :asd:
Ale55andr0
25-04-2016, 10:37
ma più che altro, mi dici dove trovo questo alberello dove crescono banconote da 500? :D
Kingdemon
25-04-2016, 10:38
Una famiglia di hardcore gamers :D
Goofy Goober
25-04-2016, 10:55
Ma giocano pesantemente i tuoi? :asd:
ma più che altro, mi dici dove trovo questo alberello dove crescono banconote da 500? :D
Una famiglia di hardcore gamers :D
https://dl.dropboxusercontent.com/u/3896005/GIF/8dZZTx6.gif
sono morto dal ridere :asd:
TigerTank
25-04-2016, 10:56
Comunque speriamo a giugno di avere ste 1070/1080.. prima che l'arrivo dell'estate e le attività correlate mi facciano scendere l'hype :asd:
Se sei anche tu soggetto al calo estivo tanto vale aspettare settembre, al ricrescere della voglia di gaming, con un paio di mesi di rodaggio schede/drivers e con tutti i vari modelli custom :D
La mia strategia sarà: all'uscita una bella coppia di 1080 da piazzare una sul pc al posto della 980 e una sul pc di mio figlio al posto della 980Ti, che andrà ad essere ricollocata sul pc a casa dei miei al posto dello sli di titan (le prime uscite).
Poi all'uscita della 1080Ti ne prenderò una che andrà al posto di una 1080, che a quel punto farà a coppia con lo SLI con l'altra sul primo pc.
Mi chiedo solo se conviene acquistare anche una ulteriore 980Ti per lo SLI sul pc a casa dei miei, ma penso che una sola già basta.
Nvidia dovrebbe seriamente introdurre qualche promozione-famiglia! :D
Kingdemon
25-04-2016, 11:09
Se sei anche tu soggetto al calo estivo tanto vale aspettare settembre, al ricrescere della voglia di gaming, con un paio di mesi di rodaggio schede/drivers e con tutti i vari modelli custom :D
Un pò sì perchè si passa tanto tempo fuori e magari quest'anno riprendo anche la due rote :)
Di solito poi ho i picchi di hype/voglia di cambiare in autunno e primavera.
Potrei anche prendere una 970/980 usata quando e se caleranno e a settembre scalarla nell'htpc. Al momento gioco a fifa e gta spaparanzato sul divano ma mi manca un pò un bel fps.
Diciamo che la voglia di comprare è al 80/90% di origine scimmiesca.
YesManYes
25-04-2016, 11:39
Mikael quindi la 1080 avrebbe meno polymorph di una 980ti... Ma essendo i 4.0 renderanno meglio sicuramente.... Come la 680 che con 8 PE 2.0 era migliore dei 16 PE 1.0 delle 580
Inviato dal mio PLK-L01 utilizzando Tapatalk
Thunder-74
25-04-2016, 12:05
A proposito , lo shop e-k**( se si puo chiedere )è affidabile in caso di problemi? Chiedo perché tempo fa( quando avevo necessità )avevo letto pareri in contrasto.
io ho avuto un problema con una 3770k dopo più di 6 mesi, mi hanno ridato i soldi al valore di acquisto in quel momento (era anche salita di 20 euro..) Si sono affidabili ;)
killeragosta90
25-04-2016, 12:20
https://dl.dropboxusercontent.com/u/3896005/GIF/8dZZTx6.gif
sono morto dal ridere :asd:
:asd:
mikael84
25-04-2016, 12:20
Mikael quindi la 1080 avrebbe meno polymorph di una 980ti... Ma essendo i 4.0 renderanno meglio sicuramente.... Come la 680 che con 8 PE 2.0 era migliore dei 16 PE 1.0 delle 580
Inviato dal mio PLK-L01 utilizzando Tapatalk
Esatto ma non dimenticare il clock.
La 980ti si ritrova più triangoli per ciclo ma dopo la moltiplicazione la 1080 passa avanti
GTX 980ti = 7,26 T x clock
1080 = 6,6T x clock
7811 gm200- 9900 gp104 G/tris/s
Senza considerare appunto implementazioni nel motore geometrico.
Hai nominato la 580, anche li c'è stato "l'imbroglio" Nvidia, visto che le rops sono sempre 32 (24,7gpixel su 4 raster)
A quanto sembra Polaris 10 andrà al massimo come una 980ti costando circa 350$, quindi per le pure prestazioni le Nvidia 1070 e 1080 dovrebbero essere le piu' potenti schede disponibili .
Se la 1070 la vendono a 350 euro fà il botto davvero .
http://hardware.hdblog.it/2016/04/25/AMD-Polaris-10-GTX-980-Ti-prezzo-mainstream/
.
YesManYes
25-04-2016, 15:04
Hai nominato la 580, anche li c'è stato "l'imbroglio" Nvidia, visto che le rops sono sempre 32 (24,7gpixel su 4 raster)
GTX 580 16 x 2 x 772 = 24.7Gpixel
GTX 570 15 x 2 x 732 = 22Gpixel
GTX 470 14 x 2 x 607 = 16.9Gpixel
GTX 560Ti 8 x x 823 = 13.1Gpixel
le GTX 580 e 570 davano valori reali paragonabili a schede con 32Rops, la 470 meno, e la 560Ti che era 32ROPs da valori paragonabili ad una scheda con 16ROPs :asd:
C'è stata una mancanza di trasparenza anche li, sui reali valori di pixel fill rate...
Va detto che cmq la GTX 580 era una scheda assolutamente bestiale... ;)
YesManYes
25-04-2016, 15:20
si rincorrono tante voci sulla vendita di amd ma non sapevo che nvidia avesse cambiato ragione ed oggetto sociale diventando una onlus :sofico:
sognare non costa, ma secondo me la 1070 MINIMO 400, probabile sui 450.
anche secondo me.
la 1080 sui 600€
si rincorrono tante voci sulla vendita di amd ma non sapevo che nvidia avesse cambiato ragione ed oggetto sociale diventando una onlus :sofico:
sognare non costa, ma secondo me la 1070 MINIMO 400, probabile sui 450.
Anche io penso che le 1070 staranno a 399-449, ma una società guarda al mercato se ha una concorrenza competitiva potrebbe anche scendere se ha il margine per guadagnare anche al prezzo più basso!
deadbeef
25-04-2016, 15:34
le varie coppie di genitori hardcore gamers sono già pronte a scucire gli scudi
quello che non è chiaro è che le 'prestazioni pure' interessano all'1% del mercato, il resto vuole il best bang for the bucks
mikael84
25-04-2016, 15:40
GTX 580 16 x 2 x 772 = 24.7Gpixel
GTX 570 15 x 2 x 732 = 22Gpixel
GTX 470 14 x 2 x 607 = 16.9Gpixel
GTX 560Ti 8 x x 823 = 13.1Gpixel
le GTX 580 e 570 davano valori reali paragonabili a schede con 32Rops, la 470 meno, e la 560Ti che era 32ROPs da valori paragonabili ad una scheda con 16ROPs :asd:
C'è stata una mancanza di trasparenza anche li, sui reali valori di pixel fill rate...
Va detto che cmq la GTX 580 era una scheda assolutamente bestiale... ;)
La 560ti utilizzava raster da 4 pixel come la 460, quindi era una 16 rops con una partizione tagliata pure:sofico:
Altro che 32
Concordo cmq, le 580 e 570 erano davvero belle bestie (malgrado questi accorgimenti).
La 560ti utilizzava SM alla Kepler con 48 elementi(Kepler era simile ma più grande), divisi in blocchi da 16, dove solo due potevano essere schedulati completamente.
Questo faceva perdere tante risorse, come il vliw di AMD
considerando che polaris probabilmente esce o insieme o dopo le 1070, l'effetto dell'eventuale concorrenza sul prezzo delle 1070 non lo vedremo almeno fino a gennaio.
se hanno stabilito che so 400€ non è che se esce polaris e va uguale il giorno dopo che annunciano 400 fanno 350... e poi nvidia, forte del brand e di un pubblico oltremodo affezionato, può permettersi un sovrapprezzo apple-style senza ripercussioni sulle vendite.
Perché la concorrenza deve essere pressante e continuativa non un anno su 5
scorpion73
25-04-2016, 16:03
La mia strategia sarà: all'uscita una bella coppia di 1080 da piazzare una sul pc al posto della 980 e una sul pc di mio figlio al posto della 980Ti, che andrà ad essere ricollocata sul pc a casa dei miei al posto dello sli di titan (le prime uscite).
Poi all'uscita della 1080Ti ne prenderò una che andrà al posto di una 1080, che a quel punto farà a coppia con lo SLI con l'altra sul primo pc.
Mi chiedo solo se conviene acquistare anche una ulteriore 980Ti per lo SLI sul pc a casa dei miei, ma penso che una sola già basta.
Dai ragazzi era evidente che ero ironico no... volevo solo levare un attimo la discussione da un aspetto tecnico che ancora tanto non sappiamo e fare un po' di goliardia....
Dovrei guadagnare 8000 euro al mese per fare quello che ho scritto, mi pare un tantino fuori strada...
Sarà tanto se me ne prendo una rifacendo una parte dei soldi con la mia attuale 980...
fraussantin
25-04-2016, 17:03
scusami ma negli ultimi 5 anni sono stato sulla luna ed a quanto pare amd non ha presentato nulla di interessante (gpu), non sapevo!
L'unica cosa interessante che ha presentato sono stati i crimson.
scusami ma negli ultimi 5 anni sono stato sulla luna ed a quanto pare amd non ha presentato nulla di interessante (gpu), non sapevo!
:mbe: :mbe:
Ragazzi non so se non volete capire, se non vi piace capire o che altro! :rolleyes:
Ps: oppure non è proprio chiaro cosa voglia dire essere realmente competitivo
Se uno rincorre e vuole recuperare le cose sono due:
- o costa uguale ma va di più
- o va uguale ma costa meno
AceGranger
26-04-2016, 08:13
http://www.bitsandchips.it/9-hardware/6917-tesla-con-gpu-gp100-solo-a-fine-anno-forse-inizio-2017
...Il "sitarello", quello che non ci azzecca mai :O
e cosa avrebbe "azzeccato" visto che lo hanno detto subito quelli di nVidia ?
era gia stato riportato da diverse testate il giorno del lancio di GP100; le Tesla attualmente saranno disponibili "subito" in "affitto" a nVidia via cloud, una piccola quantita sara disponible invece per i partner per supercomputer ( quelli che acquisteranno al lama da 128.000 £ ) mentre per il resto se ne riparlera nel 2017.
giusto 3 settimane fa http://wccftech.com/nvidia-tesla-p100-gp100-june-2016/
The Tesla P100 was already stated to be in volume production and will be shipping first to the deep learning / cloud computing servers and supercomputers in US in June 2016 and OEM availability in Q1 2017.
sara anche un ottimo sito per le news AMD, ma per il resto, per le news di nVidia e sopratutto Intel è peggio di Tom's dei peggiori tempi, specialmente con Intel dove gridano al fallimento una news si e una no :asd:
AceGranger
26-04-2016, 11:32
...quando si parla di nvidia, vi agitate manco vi avessero toccato un parente...
e comunque parlo degli ultimi 3 anni mica solo di questo articoletto come ad esempio il fatto che avrebbero saltato a piè pari i 20nm ma nessuno ancora lo diceva, compreso wccftech, quelli che leggono B&C e a volte riportano proprio loro come fonte :sofico:
:asd:
il fallimento di tegra e dei contra revenue non è il segreto di pulcinella, lo sanno anche i sassi...
bè, non mi pare che le altre testate non ne abbiano parlato, anche perchè l'andamento delle divisioni erano conosciute da tutti con i resoconti trimestrali;
non è il cosa dicono, ma il come lo dicono che ogni tanto è al limite del ridicolo... :asd:.
Legolas84
26-04-2016, 11:41
Mamma mia che scandalo però... sempre i soliti noti a tirare su flame in questo thread.... si eclissano per qualche giorno e diventa improvvisamente tranquillo e leggibile.... tornano e guarda che roba.
Eh si che il buon FreeMan ha già fatto cadere su di loro la mannaia diverse volte, ma niente non la capiscono.... :rolleyes:
illidan2000
28-04-2016, 08:31
Tanti auguri!!!!
?
?
A meeeeeeee!!! Yeeeeeeeeee!!!!!
Flame mode on! :asd:
illidan2000
28-04-2016, 10:13
A meeeeeeee!!! Yeeeeeeeeee!!!!!
Flame mode on! :asd:
LOL!!!
AUGURI !!!!
Legolas84
28-04-2016, 10:49
Auguri Ego ;)
Goofy Goober
28-04-2016, 11:03
Tanti auguri!!!!
A meeeeeeee!!! Yeeeeeeeeee!!!!!
Flame mode on! :asd:
"Procacciamento auguri di compleanno gratuiti in giro per l'internet" LEVEL = Over 9000.
https://dl.dropboxusercontent.com/u/3896005/GIF/deal%20with%20lupin.gif
p.s.
auguri eh
:asd:
killeragosta90
28-04-2016, 12:41
Tanti auguri!!!!
Ma LOL :D Solo te potevi fart gli auguri da solo :asd:
AUGURI EGO!! ;)
mikael84
28-04-2016, 13:37
A meeeeeeee!!! Yeeeeeeeeee!!!!!
Flame mode on! :asd:
Auguri Ego:happy:
Regalati uno SLI di 980ti:fagiano:
illidan2000
28-04-2016, 13:40
Auguri Ego:happy:
Regalati uno SLI di 980ti:fagiano:
KPE :sofico:
auguri ego :D
ma cambiati ste schede, ancora la 780 che ti ho dato io tieni ?>? :p
mikael84
28-04-2016, 13:59
KPE :sofico:
Ovvio, KP 80+, altro che x70.:sofico:
Partiranno leggermente sopra di base ma in OC le polverizzano, una KP a 1600 sarebbe l'equivalente di una x70 a 2200(se arriva 1800 è tanto).
Quindi 2 KP 80+ ci stanno:fagiano:
illidan2000
28-04-2016, 14:08
Ovvio, KP 80+, altro che x70.:sofico:
Partiranno leggermente sopra di base ma in OC le polverizzano, una KP a 1600 sarebbe l'equivalente di una x70 a 2200(se arriva 1800 è tanto).
Quindi 2 KP 80+ ci stanno:fagiano:
Senza ironia, ma penso che ad EVGA gli converrebbe affiliarsi a qualche società finanziaria, tipo FinDomestic, per far acquistare la merce a rate...
Ahah grazie regà!!!
Noooo goofy, ma quale procacciamento :sofico:
auguri ego :D
ma cambiati ste schede, ancora la 780 che ti ho dato io tieni ?>? :p
Certo, accendo di nuovo un mutuo :sofico: ormai le keplerine finiranno in bara con me :asd:
Ma LOL :D Solo te potevi fart gli auguri da solo :asd:
AUGURI EGO!! ;)
Eccerto!!! Perchè come diceva il marchese del grillo: perchè io so io... :asd:
TigerTank
28-04-2016, 14:55
Ovvio, KP 80+, altro che x70.:sofico:
Partiranno leggermente sopra di base ma in OC le polverizzano, una KP a 1600 sarebbe l'equivalente di una x70 a 2200(se arriva 1800 è tanto).
Quindi 2 KP 80+ ci stanno:fagiano:
A meno che ci pensino via via i nuovi drivers a pareggiare i conti :sofico:
Auguri EGO ;)
mikael84
28-04-2016, 15:01
A meno che ci pensino via via i nuovi drivers a pareggiare i conti :sofico:
Auguri EGO ;)
Pascal è fondamentalmente un maxwell, solo che ogni SM pur essendo legato da un texture cluster può lavorare indipendente. Quindi in certi titoli può essere avvantaggiata ma Maxwell non perde risorse come Kepler.
Kepler devi ben programmarlo altrimenti 64cc (32x2) su 192 vanno in dipendenza e ti ritrovi in pratica ad usare il 66% di cc.:)
Maxwell, usa sempre e cmq tutti i cc.
Quindi a questo giro non ci dovrebbero essere grossi stravolgimenti(salvo i pro gcn).:)
fraussantin
28-04-2016, 15:10
Pascal è fondamentalmente un maxwell, solo che ogni SM pur essendo legato da un texture cluster può lavorare indipendente. Quindi in certi titoli può essere avvantaggiata ma Maxwell non perde risorse come Kepler.
Kepler devi ben programmarlo altrimenti 64cc (32x2) su 192 vanno in dipendenza e ti ritrovi in pratica ad usare il 66% di cc.:)
Maxwell, usa sempre e cmq tutti i cc.
Quindi a questo giro non ci dovrebbero essere grossi stravolgimenti(salvo i pro gcn).:)
Questa è un'ottima news!
Arrow0309
28-04-2016, 15:37
Auguri Ego! :cincin:
Ps:
Considera pure 2 Giga 980 Ti Xtreme che di recente hanno pure dei wubbi EK. :D
E nulla da invidiare alle più costose KP. :cool:
Tanti auguri!!!!
A meeeeeeee!!! Yeeeeeeeeee!!!!!
Flame mode on! :asd:
:asd: :asd:
Auguri! :happy:
siluro85
28-04-2016, 16:14
Auguri!
TigerTank
28-04-2016, 16:17
Pascal è fondamentalmente un maxwell, solo che ogni SM pur essendo legato da un texture cluster può lavorare indipendente. Quindi in certi titoli può essere avvantaggiata ma Maxwell non perde risorse come Kepler.
Kepler devi ben programmarlo altrimenti 64cc (32x2) su 192 vanno in dipendenza e ti ritrovi in pratica ad usare il 66% di cc.:)
Maxwell, usa sempre e cmq tutti i cc.
Quindi a questo giro non ci dovrebbero essere grossi stravolgimenti(salvo i pro gcn).:)
Speriamo dai....sinceramente non è che io abbia tutta questa fretta di cambiare la scheda attuale. Le gtx980Ti sono ancora giovani rispetto alle gtx970 e gtx980 che a settembre-ottobre 2016 avranno 2 anni.
majinbu7
28-04-2016, 17:02
Iscritto e curioso di vedere quali prestazioni avranno le nuove x70 x80 , pensate che a settembre saranno disponibili?
Kostanz77
28-04-2016, 17:16
Iscritto e curioso di vedere quali prestazioni avranno le nuove x70 x80 , pensate che a settembre saranno disponibili?
Spero metà giugno.....
Tu non stai bene.
Che poi non ho mica capito che razza di fanboy sei?
Ciao
,3 Maxwell ho avuto ma.quale fanboy, è chiara invece la tua di razza...
7gg a testa
>bYeZ<
paolox86
28-04-2016, 20:10
Spero metà giugno.....
Spero pure io, in un impeto di follia ho già piazzato altrove la 980ti. Non ho niente da giocare al momento, il prossimo titolo che mi interessa è Doom
Kostanz77
28-04-2016, 20:33
Spero pure io, in un impeto di follia ho già piazzato altrove la 980ti. Non ho niente da giocare al momento, il prossimo titolo che mi interessa è Doom
Prendi una GTX 1080?.....o ti accontenti della sorellina 1070?
A meeeeeeee!!! Yeeeeeeeeee!!!!!
http://lh4.ggpht.com/qKyEbI2_G8_1uWjDpSih5mj1D95j6vc9JglBbi59Z-C2PPaFhqgONM_t1jA503lTwX_w6tjhwhKXRtUhx_SnAQ=s240
:sofico:
Spider-Mans
28-04-2016, 20:50
Come già detto, la presentazione ufficiale avverrà tra 2 settimane (il 6 Maggio)... la commercializzazione poi a seguire.
8 giorni :D
fraussantin
28-04-2016, 22:23
Edit
paolox86
28-04-2016, 22:32
Prendi una GTX 1080?.....o ti accontenti della sorellina 1070?
Sarei per la 1080, ma bisogna anche vedere la differenza di prestazioni e il costo. Come sempre avviene la 1070 avrà un rapporto performance/euro maggiore... Nelle ultime 2 generazioni di GX104 alla fine ho sempre scelto la sorellina minore (670 e 970), questa volta direi 1080 visto che sono riuscito a strappare un buon prezzo per la 980ti ma vedremo...
Inoltre se la 1070 dovesse andare meno della 980ti non avrebbe senso, a quel punto sicuro 1080
Kostanz77
28-04-2016, 22:33
Sarei per la 1080, ma bisogna anche vedere la differenza di prestazioni e il costo. Come sempre avviene la 1070 avrà un rapporto performance/euro maggiore... Nelle ultime 2 generazioni di GX104 alla fine ho sempre scelto la sorellina minore (670 e 970), questa volta direi 1080 visto che sono riuscito a strappare un buon prezzo per la 980ti ma vedremo...
E poi passerai al chippone.....1080 ti😃
paolox86
28-04-2016, 22:35
E poi passerai al chippone.....1080 ti😃
Inutile, mi faccio 100000 buoni propositi ma poi non resisto mai.. Esatto!! 😁
Oramai io mi sposto solo più di chippone in chippone. Da Titan a titan, tutte quelle castrature di marketing sono solo un modo per far fuori sample imperfetti.
YesManYes
29-04-2016, 07:38
La Titan fail (fail per i prezzi) mai: fottesega se il chip è tutto sbloccato.
1200 euro solo per una GPU... per giocare???
E la prossima probabilmente,con la reintroduzione delle fp64 costerà anche di più.... madonnina santa...
CiccoMan
29-04-2016, 08:44
Dite così solo perché non avete mai avuto una Titan :D
Speriamo solo che nvidia mantenga i 999$ senza aumenti...
YesManYes
29-04-2016, 08:50
Non è niente di eccezionale rispetto alla TI che va quasi uguale e costa la metà
Inviato dal mio PLK-L01 utilizzando Tapatalk
Goofy Goober
29-04-2016, 08:57
Dite così solo perché non avete mai avuto una Titan :D
Speriamo solo che nvidia mantenga i 999$ senza aumenti...
ne ho ancora due di titane e la penso allo stesso modo :asd:
e sono il primo a autoritenermi un pazzo per averle prese per videogiocare. :O
perlomeno le ho ammortizzate, anche se ormai sono dei paracarri.
TigerTank
29-04-2016, 09:22
Dite così solo perché non avete mai avuto una Titan :D
Speriamo solo che nvidia mantenga i 999$ senza aumenti...
Non è niente di eccezionale rispetto alla TI che va quasi uguale e costa la metà
Ahahah infatti, se parliamo di gaming è proprio così. Titan significa avere un pelo di prestazioni in più a costo spropositato e un quantitativo di vram che salvo rarissimi casi non sfrutterai mai prima che la scheda sia già obsoleta :)
Comunque se avrà davvero ben 32GB di HBM2(imho fin troppi) mi sa che arriverà pure sui 1500€ :D
Già a me non dispiacerebbe una 1080Ti con 8GB di HBM2 invece che 16 se questo vuol dire abbattere di un pò il costo. Non mi piace pagare roba che poi non sfrutto.
ne ho ancora due di titane e la penso allo stesso modo :asd:
e sono il primo a autoritenermi un pazzo per averle prese per videogiocare. :O
perlomeno le ho ammortizzate, anche se ormai sono dei paracarri.
Ma tu sei un caso a parte Goofy...le hai da quanto? 3 anni? Le hai sfruttate alla grande e hai saltato la generazione maxwell :)
Goofy Goober
29-04-2016, 09:31
Ma tu sei un caso a parte Goofy...le hai da quanto? 3 anni? Le hai sfruttate alla grande e hai saltato la generazione maxwell :)
Si hanno fatto 3 anni a febbraio di quest'anno, come dicevo perlomeno ho ammortizzato tutto, le avevo prese allo stra-dayone (ottimo prezzo, sui 850 euro l'una mi pare), ero pure tra i primi ad aver preso i wubbi EK (ordinate ancora quando li stavano fabbricando) e liquidarle, forse il primo in italia con il big kepler a bagno se ben ricordo :asd:
Legolas84
29-04-2016, 09:36
La titan ha senso come scheda semi-pro (la maxwell in verità nemmeno per questo...)... Per un semplice videogiocatore è un non sense...
Per me la titan è come se non esistesse perché non mi serve una scheda semi pro...
Inviato dal mio ONE A2003 utilizzando Tapatalk
appleroof
29-04-2016, 10:36
Pascal è fondamentalmente un maxwell, solo che ogni SM pur essendo legato da un texture cluster può lavorare indipendente. Quindi in certi titoli può essere avvantaggiata ma Maxwell non perde risorse come Kepler.
Kepler devi ben programmarlo altrimenti 64cc (32x2) su 192 vanno in dipendenza e ti ritrovi in pratica ad usare il 66% di cc.:)
Maxwell, usa sempre e cmq tutti i cc.
Quindi a questo giro non ci dovrebbero essere grossi stravolgimenti(salvo i pro gcn).:)
Ciao mikael interessante quello che dici su Kepler, spiegherebbe molte cose, dove hai trovato queste info?
mircocatta
29-04-2016, 10:47
La titan ha senso come scheda semi-pro (la maxwell in verità nemmeno per questo...)... Per un semplice videogiocatore è un non sense...
Per me la titan è come se non esistesse perché non mi serve una scheda semi pro...
Inviato dal mio ONE A2003 utilizzando Tapatalk
oh, almeno qualcuno che lo dice c'è :fagiano:
illidan2000
29-04-2016, 11:16
Ahahah infatti, se parliamo di gaming è proprio così. Titan significa avere un pelo di prestazioni in più a costo spropositato e un quantitativo di vram che salvo rarissimi casi non sfrutterai mai prima che la scheda sia già obsoleta :)
Comunque se avrà davvero ben 32GB di HBM2(imho fin troppi) mi sa che arriverà pure sui 1500€ :D
Già a me non dispiacerebbe una 1080Ti con 8GB di HBM2 invece che 16 se questo vuol dire abbattere di un pò il costo. Non mi piace pagare roba che poi non sfrutto.
Ma tu sei un caso a parte Goofy...le hai da quanto? 3 anni? Le hai sfruttate alla grande e hai saltato la generazione maxwell :)
non è ancora escluso che la 1080ti sia a 384bit ->12gb
scorpion73
29-04-2016, 11:19
Pascal è fondamentalmente un maxwell, solo che ogni SM pur essendo legato da un texture cluster può lavorare indipendente. Quindi in certi titoli può essere avvantaggiata ma Maxwell non perde risorse come Kepler.
Kepler devi ben programmarlo altrimenti 64cc (32x2) su 192 vanno in dipendenza e ti ritrovi in pratica ad usare il 66% di cc.:)
Maxwell, usa sempre e cmq tutti i cc.
Quindi a questo giro non ci dovrebbero essere grossi stravolgimenti(salvo i pro gcn).:)
Quando dici che Kepler va programmato bene intendi a livello di drivers no?
Altrimenti non si spiega perché il drop del framerate..
Se però ho capito male ovviamente correggimi pure
Legolas84
29-04-2016, 11:31
oh, almeno qualcuno che lo dice c'è :fagiano:
Guarda io cerco sempre di affrontare obbiettivamente le cose ambo i lati ;)
Inviato dal mio ONE A2003 utilizzando Tapatalk
fraussantin
29-04-2016, 11:38
Scusate l'ot , ma qui siete aggiornati , ma che l'xfx è fallita?
Non riesco ad accedere al loro sito in nessun modo..
mikael84
29-04-2016, 11:56
Ciao mikael interessante quello che dici su Kepler, spiegherebbe molte cose, dove hai trovato queste info?
Ciao Apple.
Con Kepler hanno ripetuto sostanzialmente quanto fatto con la 460.
Con il GF100 gli SM erano strutturati in 2 scheduler da 16cc, ognuno lavorava indipendentemente dall'altro.
GF104 con questo schema (ottimale) doveva avere quindi 256cc massimo, suddivisi in 2 raster da soli 4 pixel.
Da qui l'idea di aumentare gli SM da 32 a 48cc ma sempre con gli stessi scheduler.
In questo modo il numero di cc saliva da 256 a 384 massimi (560ti).
I cuda all'interno erano divisi in 3 blocchi da 16 più i vari load store/sfu/tmu per chiamate.
Per massimizzare le prestazioni, ogni istruzione doveva essere indipendente e mai dipendente, altrimenti un blocco da 16cc non partiva prima che l'altro finisse l'istruzione e rimaneva quindi in idle.
Questo succedeva anche con la Vliw di AMD.
Kepler poteva essere diretto da 128cc per SMX come Maxwell ma non potendo integrare tutti quegli SMM hanno adottato la strategia di GF104.
Non a caso l'SMX è suddiviso in 2 blocchi da 96, dove all'interno sono presenti 3 blocchi da 32 per un totale di 6.
Per non avere mai perdite i 2 blocchi non devono mai rimanere in idle ad aspettare l'istruzione, altrimenti rischi di ritrovarti con un'utilizzo del 66%.
TigerTank
29-04-2016, 12:59
non è ancora escluso che la 1080ti sia a 384bit ->12gb
Mmh no, non credo. Secondo me 256bit e 8GB a 600€, dev'essere più potente delle attuali per inscimmiare ma non troppo potente per non infastidire le GP100 :D
Goofy Goober
29-04-2016, 13:17
Scusate l'ot , ma qui siete aggiornati , ma che l'xfx è fallita?
Non riesco ad accedere al loro sito in nessun modo..
sembra gli sia scaduto il dominio del sito internet.... molto professionali direi :asd:
il sito del supporto è ancora attivo:
http://www.xfxsupport.com/Account/Login.aspx
cmq XFX, lato schede video, già da anni fa solo gpu AMD (nvidia la ha abbandonata quando hanno iniziato con le ATI).
mikael84
29-04-2016, 13:27
Ahahah infatti, se parliamo di gaming è proprio così. Titan significa avere un pelo di prestazioni in più a costo spropositato e un quantitativo di vram che salvo rarissimi casi non sfrutterai mai prima che la scheda sia già obsoleta :)
Comunque se avrà davvero ben 32GB di HBM2(imho fin troppi) mi sa che arriverà pure sui 1500€ :D
Già a me non dispiacerebbe una 1080Ti con 8GB di HBM2 invece che 16 se questo vuol dire abbattere di un pò il costo. Non mi piace pagare roba che poi non sfrutto.
Abbatti anche la banda così facendo:fiufiu:
Ti ritrovi la x80 con più banda e stessa ram.:p
fraussantin
29-04-2016, 13:35
sembra gli sia scaduto il dominio del sito internet.... molto professionali direi :asd:
il sito del supporto è ancora attivo:
http://www.xfxsupport.com/Account/Login.aspx
cmq XFX, lato schede video, già da anni fa solo gpu AMD (nvidia la ha abbandonata quando hanno iniziato con le ATI).
Ok grazie .
TigerTank
29-04-2016, 13:39
Abbatti anche la banda così facendo:fiufiu:
Ti ritrovi la x80 con più banda e stessa ram.:p
Dici che una Ti con bus a 512bit e 8GB non la potrebbero fare? :D
O al massimo facciamo appunto 384bit e 12GB, così sarebbe un pò l'equivalente delle Ti attuali da 6GB rispetto alle gtx970/980 da 4 :)
mikael84
29-04-2016, 14:02
Dici che una Ti con bus a 512bit e 8GB non la potrebbero fare? :D
O al massimo facciamo appunto 384bit e 12GB, così sarebbe un pò l'equivalente delle Ti attuali da 6GB rispetto alle gtx970/980 da 4 :)
512bit? No no, sono 6 GPC, però un bel 384bit si può fare. :)
Levi la DP, fai un core da circa 470/500mm2 e lo colleghi ad un bus ddr5x con ampiezza variabile da 10 a 12gigabit che sono rispettivamente 480gb/s e 576gb/s. Quindi tanta roba e sopratutto ben 12 gb.:)
illidan2000
29-04-2016, 14:40
Mmh no, non credo. Secondo me 256bit e 8GB a 600€, dev'essere più potente delle attuali per inscimmiare ma non troppo potente per non infastidire le GP100 :D
io dico della TI infatti!
YesManYes
29-04-2016, 14:50
512bit? No no, sono 6 GPC, però un bel 384bit si può fare. :)
Levi la DP, fai un core da circa 470/500mm2 e lo colleghi ad un bus ddr5x con ampiezza variabile da 10 a 12gigabit che sono rispettivamente 480gb/s e 576gb/s. Quindi tanta roba e sopratutto ben 12 gb.:)
Si ma non la faranno....
Useranno il GP100 (o GP100b) per le schede tesla quadro e geforce di fascia enthusiast... insomma tutto con il solito chippone.
Se poi in 2 anni di Pascal non non ci saranno miglioramenti nel pp, come successe con i 28nm allora per aumentare le prestazioni faranno una nuova serie, con una gpu completamente gaming tipo quella che hai descritto te... come è successo dal passaggio a kepler 28nm verso Maxwell 28nm
YesManYes
29-04-2016, 15:15
se il processo rimane quello allora nel 2018 quando entrerà in gioco Volta useranno un chip più grosso di quello del GP104, magari da 400mmq o poco più...per migliorare le prestazioni sulla fascia della 1080 ed un chip da 600mmq completamente gaming per migliorare le prestazioni gaming sulla fascia enthusiast
praticamente come ha fatto Maxwell....
è solo un ipotesi...poi chissà...
TigerTank
29-04-2016, 15:28
512bit? No no, sono 6 GPC, però un bel 384bit si può fare. :)
Levi la DP, fai un core da circa 470/500mm2 e lo colleghi ad un bus ddr5x con ampiezza variabile da 10 a 12gigabit che sono rispettivamente 480gb/s e 576gb/s. Quindi tanta roba e sopratutto ben 12 gb.:)
Vero 12GB sarebbero già tanta roba senza scomodarne 16, soprattutto alla prima tornata di HBM2 che influiranno non poco sul costo complessivo delle schede.
io dico della TI infatti!
Vero Illy, non so perchè nella fretta su cell. ho letto 1080 :D
X-ray guru
29-04-2016, 15:32
Se continua questo trend, in cui il pp serve solo a fare meno mm2 di silicio e qualche decina di % di frequenza in più, con prezzi al pubblico aumentati o al massimo uguali, ci troveremo ad avere le GPU nei processori con prestazioni simili alla fascia media delle schede video.
E chi si comprerà più le schede video?
Solo 4 gatti di super enthusiast come noi, vendendo le reni proprie e dei parenti :muro:
mikael84
29-04-2016, 16:22
se il processo rimane quello allora nel 2018 quando entrerà in gioco Volta useranno un chip più grosso di quello del GP104, magari da 400mmq o poco più...per migliorare le prestazioni sulla fascia della 1080 ed un chip da 600mmq completamente gaming per migliorare le prestazioni gaming sulla fascia enthusiast
praticamente come ha fatto Maxwell....
è solo un ipotesi...poi chissà...
Volta sarà sempre mixed, FP64 e FP32 con circa il 75% di TF in base a Pascal.
Stando alla roadmap, Volta dovrebbe garantire 7TF fp64, Nvlink a pieno regime e ampiezza finalmente a 1,024TF HBM2. Oltre non si può andare con la banda, salvo ritrovarsi 100/120w solo lato ram.
Qua potrebbe realmente prendere vita un GP102(maxwell 2,0), in fin dei conti basta poco.
Raster da 24pixel, 768cc per GPC e 4608cc finali.
Le possibilità ci sono e notevoli.
YesManYes
29-04-2016, 16:36
Volta sarà sempre mixed, FP64 e FP32 con circa il 75% di TF in base a Pascal.
Mi domando come faranno a realizzarla se il pp non evolve...anche Maxwell non è tutto sto miracolo: è migliorato si nelle performance rispetto a kepler, a parità di pp e con un chippone leggermente più grande ...ma per far questo han dovuto sacrificare quello che riguarda l'hw per la DP... così da utilizzare tutti i transistors per una grossa gpu da gaming... ma con Volta come faranno?
che fanno una gpu da 900mmq??
Stando alla roadmap, Volta dovrebbe garantire 7TF fp64, Nvlink a pieno regime e ampiezza finalmente a 1,024TF HBM2. Oltre non si può andare con la banda, salvo ritrovarsi 100/120w solo lato ram.
Qua potrebbe realmente prendere vita un GP102(maxwell 2,0), in fin dei conti basta poco.
Raster da 24pixel, 768cc per GPC e 4608cc finali.
Le possibilità ci sono e notevoli.
Qua intendi nel periodo di Volta?
perchè utilizzare Pascal GP102...a quel punto potrebbero fare un chip Gaming direttamente con Volta assumendo che un qualche ulteriore miglioramento come architettura lo darà rispetto a Pascal.....
mikael84
29-04-2016, 16:57
Mi domando come faranno a realizzarla se il pp non evolve...anche Maxwell non è tutto sto miracolo: è migliorato si nelle performance rispetto a kepler, a parità di pp e con un chippone leggermente più grande ...ma per far questo han dovuto sacrificare quello che riguarda l'hw per la DP... così da utilizzare tutti i transistors per una grossa gpu da gaming... ma con Volta come faranno?
che fanno una gpu da 900mmq??
Qua intendi nel periodo di Volta?
perchè utilizzare Pascal GP102...a quel punto potrebbero fare un chip Gaming direttamente con Volta assumendo che un qualche ulteriore miglioramento come architettura lo darà rispetto a Pascal.....
Volta per come è pensato riguarderà completamente il prossimo step.
Per ora lanciano Tesla GP100 e per la DP sono più che apposto per almeno 2 anni.
Volta di conseguenza può attendere.
Rimane l'ipotesi di un "maxwell 2,0" per allungare il brodo, ed intendo un Pascal senza DP ma bello pompato in FP32/16.
Maxwell è stato un'affinamento che direi eccezionale.
Tutti i cc sono sempre utilizzati senza dipendenze, clock da cambio step (siamo passati da 1ghz ad 1,3ghz minimo), rops decisamente più efficienti e numerosi con annessa compressione color, registri e cache ben superiori e relative latenze, motore geometrico pompato e aggiornato.
Rapporto rops-cache-banda-ramdac-schermo eccellente, fattore che permette di avere una consistenza dei minimi e medi ottima.
AceGranger
29-04-2016, 17:12
Mi domando come faranno a realizzarla se il pp non evolve...anche Maxwell non è tutto sto miracolo: è migliorato si nelle performance rispetto a kepler, a parità di pp e con un chippone leggermente più grande ...ma per far questo han dovuto sacrificare quello che riguarda l'hw per la DP... così da utilizzare tutti i transistors per una grossa gpu da gaming... ma con Volta come faranno?
che fanno una gpu da 900mmq??
c'è un po troppo misticimo duro da sradicare attorno ai calcoli DP...
con Maxwell ci hanno fatto tutta la linea QUADRO, compresa la Top M6000 con il GM200 da 5000 euro e le TESLA, come la Tesla M40 da 24Gb.
sono molti di piu i software Pro che sfruttano l'FP32 piuttosto che quelli che necessitano dell'FP 64...
e tuta la parte di Deep Learning addirittura sfrutta la Mixed a 16...
YesManYes
29-04-2016, 17:47
AceGranger non metto in dubbio quello che dici ,anche perche la solita cosa la fecero con le kepler gk104 ( anche queste GPU realizzate principalmente per il gaming)....ma fatto sta che nVidia punterà ancora una volta alle fp64 con Pascal e Volta....
Si vede che in quei mercati dove le GPU vengono utilizzati per scopi che non riguardano il gaming, e' una caratteristica hw importante che a qualcosa serve.... altrimenti se non fossero cosi importanti alla nvidia sarebbero una massa di cretini visto che con le fp64 si consuma spazio e transistors , e c'è meno prestazioni lato gaming.....
Inviato dal mio PLK-L01 utilizzando Tapatalk
YesManYes
29-04-2016, 17:51
Mikael concordo.anche se mi resta il dubbio che potrebbero realizzare Volta 1.0 per una prima ondata di GPU dalle prestazioni superiori alle 1080ti, e quando il nuovo pp sarà pronto Volta 2.0 forte anche nei calcoli dp
Inviato dal mio PLK-L01 utilizzando Tapatalk
appleroof
29-04-2016, 19:39
Ciao Apple.
Con Kepler hanno ripetuto sostanzialmente quanto fatto con la 460.
Con il GF100 gli SM erano strutturati in 2 scheduler da 16cc, ognuno lavorava indipendentemente dall'altro.
GF104 con questo schema (ottimale) doveva avere quindi 256cc massimo, suddivisi in 2 raster da soli 4 pixel.
Da qui l'idea di aumentare gli SM da 32 a 48cc ma sempre con gli stessi scheduler.
In questo modo il numero di cc saliva da 256 a 384 massimi (560ti).
I cuda all'interno erano divisi in 3 blocchi da 16 più i vari load store/sfu/tmu per chiamate.
Per massimizzare le prestazioni, ogni istruzione doveva essere indipendente e mai dipendente, altrimenti un blocco da 16cc non partiva prima che l'altro finisse l'istruzione e rimaneva quindi in idle.
Questo succedeva anche con la Vliw di AMD.
Kepler poteva essere diretto da 128cc per SMX come Maxwell ma non potendo integrare tutti quegli SMM hanno adottato la strategia di GF104.
Non a caso l'SMX è suddiviso in 2 blocchi da 96, dove all'interno sono presenti 3 blocchi da 32 per un totale di 6.
Per non avere mai perdite i 2 blocchi non devono mai rimanere in idle ad aspettare l'istruzione, altrimenti rischi di ritrovarti con un'utilizzo del 66%.
ma è tutta farina del tuo sacco? Bè, complimenti per l'analisi :D
AceGranger
29-04-2016, 21:42
AceGranger non metto in dubbio quello che dici ,anche perche la solita cosa la fecero con le kepler gk104 ( anche queste GPU realizzate principalmente per il gaming)....ma fatto sta che nVidia punterà ancora una volta alle fp64 con Pascal e Volta....
Si vede che in quei mercati dove le GPU vengono utilizzati per scopi che non riguardano il gaming, e' una caratteristica hw importante che a qualcosa serve.... altrimenti se non fossero cosi importanti alla nvidia sarebbero una massa di cretini visto che con le fp64 si consuma spazio e transistors , e c'è meno prestazioni lato gaming.....
Inviato dal mio PLK-L01 utilizzando Tapatalk
ma certo che ci puntano, con poco sforzo in piu riescono a vendere piu GPU in piu settori; sinceramente credo che possano anche proporre una nuova GPU sullo stesso pp, non sta scritto da nessuna parte che lo sfrutteranno subito tutto o che non troveranno altri sistemi per migliorare l'efficienza e i consumi; un po come Intel che riesce ad aggiungere un buon numero di core anche quando il processo produttivo non cambia.
Simedan1985
30-04-2016, 09:44
Sulla pagina ufficiale di battlefield leggo che il 6 maggio presenteranno sicuramente il nuovo gioco..... :asd:
http://m.memegen.com/m8fta3.jpg
YesManYes
30-04-2016, 09:56
ma certo che ci puntano, con poco sforzo in piu riescono a vendere piu GPU in piu settori;
Fanno bene
sinceramente credo che possano anche proporre una nuova GPU sullo stesso pp, non sta scritto da nessuna parte che lo sfrutteranno subito tutto o che non troveranno altri sistemi per migliorare l'efficienza e i consumi; un po come Intel che riesce ad aggiungere un buon numero di core anche quando il processo produttivo non cambia.
Infatti Nvidia fa un po come intel... non introduce subito gpu che sfruttano tutto il potenziale del pp: parte con chip piccoli con poche unità fp64 (GTX 670-680 - 970-980 - 1070 -1080) ed un annetto dopo gpu grosse con molti più core/transistors ed hw per i calcoli in dp
E' possibile migliorare le prestazioni con una nuova gpu , anche usando il solito pp, questo non l'ho mai messo in dubbio.
Ma se arrivi al limite già con la precedente gpu, per fare quella nuova più veloce bisogna sacrificare qualche cosa, questo ce lo insegna Maxwell.
Il GP100 sfrutta già al limite le possibilità offerte dai 16nm... è una gpu complessa e gigantesca da 600mmq...
Sarà possibile fare di meglio rispetto a questa gpu, con cui credo terminerà (...solitamente Nvidia dopo due anni , due anni e mezzo ha sempre cambiato architettura..) il ciclo di Pascal?
Credo di si... ma dovranno togliere qualcosa... tutte le unità fp64 di cui è dotata, così da sfruttare quello spazio a disposizione e quel numero di transistors disponibili , per farla più prestante in SP...
Se poi Volta migliorerà ancora rispetto a Pascal allora un chip grossotto, libero da hw per la dp ed unito ad un architettura ancora migliore rispetto a Pascal possono fare un bel salto.
poi verso il 2019/2020 con un nuovo pp fanno la GPU con Volta nella sua massima espressione.
questa è una mia ipotesi...
metà 2016
Pascal GP104 GTX 1080 - 1070 - 1060Ti o GTX 1080M-1070M
durante il 2017
Pascal GP100 GTX Titan 3 - GTX 1080Ti
Metà 2018
GV104 - GTX 2080 - 2070 più veloci delle Pascal
metà 2019
GV204 e GV200 a 7nm più veloci di Volta 1.0
oppure:
metà 2016
Pascal GP104 GTX 1080 - 1070 - 1060Ti o GTX 1080M-1070M
durante il 2017
Pascal GP100b GTX Titan 3 - GTX 1080Ti
2018
Pascal GP102 GTX 1090 o Dual GPU GP100b
2019
GV104 e GV100 a 7nm
Crysis90
30-04-2016, 10:41
Volta sarà al 100% fabbricato col processo a 14 nm.
I 7 nm verranno utilizzati dal 2019/2020 in poi con litografia EUV.
Ma ancora ne hanno di strada da fare.
TigerTank
30-04-2016, 11:35
ma è tutta farina del tuo sacco? Bè, complimenti per l'analisi :D
Io ormai lo chiamo Mikipedia! :O :D
Giovamas
30-04-2016, 11:46
Io ormai lo chiamo Mikipedia! :O :D
E' il nostro "guru" :)
Staffelli0502
30-04-2016, 11:52
http://videocardz.com/59471/nvidia-geforce-gtx-1060-ti-6gb-ram
Inviato dal mio MI PAD 2 utilizzando Tapatalk
è il nostro signor Anderson :D
nico88desmo
30-04-2016, 11:54
Un po di rumors, nVidia Pascal editor's day la settimana prossima:
http://videocardz.com/59459/nvidia-pascal-editors-day-next-week
e per la GTX 1060 Ti qualche info in più:
http://videocardz.com/59471/nvidia-geforce-gtx-1060-ti-6gb-ram
Facciamo un pò di totoquiz per ingannare l'attesa :D .
Secondo voi la 1060ti se avrà veramente 6gb ddr5 dove si potrebbe posizionare ? Sia Nvidia che AMD .
TigerTank
30-04-2016, 13:10
è il nostro signor Anderson :D
No no, è l'architetto! :D
Un po di rumors, nVidia Pascal editor's day la settimana prossima:
http://videocardz.com/59459/nvidia-pascal-editors-day-next-week
e per la GTX 1060 Ti qualche info in più:
http://videocardz.com/59471/nvidia-geforce-gtx-1060-ti-6gb-ram
mamma mia....se confermato quel dissipatore reference imho è proprio orrendo :stordita:
Secondo voi la 1060ti se avrà veramente 6gb ddr5 dove si potrebbe posizionare ? Sia Nvidia che AMD .
Se si ipotizza una 1070 vicina ad una gtx980Ti, facile che una gtx1060 Ti equivalga una gtx980.
mikael84
30-04-2016, 13:28
ma è tutta farina del tuo sacco? Bè, complimenti per l'analisi :D
:D
Fatti vedere più spesso Apple:)
No no, è l'architetto! :D
mamma mia....se confermato quel dissipatore reference imho è proprio orrendo :stordita:
Se si ipotizza una 1070 vicina ad una gtx980Ti, facile che una gtx1060 Ti equivalga una gtx980.
Si in linea di massima per potenza computazionale siamo tra 980/980ti. Teoricamente con circa 1664cc si pareggiano i 2304 di maxwell ma la prima gode di architettura con miglior IPC per cc.
Le rops invece avranno un fillrate vicino a quello della 980ti.
La 980ti in OC l'asfalta, e la 980 in OC recupera gran parte.
Pascal però avrà un vantaggio quando si programma specificatamente per i 64 thread ed in base a certi titoli può avere un tot. di vantaggio.:)
Fanno bene
cut
metà 2016
Pascal GP104 GTX 1080 - 1070 - 1060Ti o GTX 1080M-1070M
durante il 2017
Pascal GP100b GTX Titan 3 - GTX 1080Ti
2018
Pascal GP102 GTX 1090 o Dual GPU GP100b
2019
GV104 e GV100 a 7nm
Per GP102 bisogna trovare i punti deboli di Pascal e creare un "maxwell 2,0" che copra tutte le fasce, altrimenti GP102 va a posizionarsi sopra il chippone che a sto giro avrà nuove vette.
Volta GV104 avrà un rapporto flops per watt doppio, quindi dovremmo avere una sorta di 3820cc/4096cc su un range di 1800-1900 (+25/35% per transistor)
GV100 6144cc su un core da 1800-1900 e ti esce un raddoppio perfetto su GP100
Su volta bisogna fantasticare su roadmap, poi vedere passo per passo, anche se l'unica cosa confermata dovrebbe essere appunto il raddoppio flops per watt
TigerTank
30-04-2016, 13:33
Si in linea di massima per potenza computazionale siamo tra 980/980ti. Teoricamente con circa 1664cc si pareggiano i 2304 di maxwell ma la prima gode di architettura con miglior IPC per cc.
Le rops invece avranno un fillrate vicino a quello della 980ti.
La 980ti in OC l'asfalta, e la 980 in OC recupera gran parte.
Pascal però avrà un vantaggio quando si programma specificatamente per i 64 thread ed in base a certi titoli può avere un tot. di vantaggio.:)
Già...diciamo che da un lato gtx980Ti e TitanX sono forti del loro essere gpu complete e definitive di generazione, delle "muscle" gpu...però dall'altro ci saranno i soliti vantaggi architetturali + relative ottimizzazioni drivers/giochi...e diciamo anche lo zampino del marketing...che ovviamente deve sempre favorire il nuovo a discapito del vecchio.
Giovamas
30-04-2016, 13:42
Un po di rumors, nVidia Pascal editor's day la settimana prossima:
http://videocardz.com/59459/nvidia-pascal-editors-day-next-week
e per la GTX 1060 Ti qualche info in più:
http://videocardz.com/59471/nvidia-geforce-gtx-1060-ti-6gb-ram
Ottimo grazie :) il dissy però sembra un poligono lovecraftiano non mi piace proprio
Ottimo grazie :) il dissy però sembra un poligono lovecraftiano non mi piace proprio
Ma lol i commenti sotto :asd:
mikael84
30-04-2016, 13:53
Già...diciamo che da un lato gtx980Ti e TitanX sono forti del loro essere gpu complete e definitive di generazione, delle "muscle" gpu...però dall'altro ci saranno i soliti vantaggi architetturali + relative ottimizzazioni drivers/giochi...e diciamo anche lo zampino del marketing...che ovviamente deve sempre favorire il nuovo a discapito del vecchio.
Esatto, pensa che una 980 a 1550 produce 6,3TF teorici, una x60ti pur partendo molto avanti e con un OC di ben 1800 si fermerebbe a 6TF.
Diverso se programmi specificatamente per i 64 thread, in quanto gli SM pascal sono indipendenti e gestiscono per CC 1024 istruzioni.
Una soluzione ancora migliore di avere cache grandi, perchè queste consentono di memorizzare più dati ma devi perdere tempo a cercarle (come in un pentolone), invece con l'istruzione ce l'hai pronta per essere processata e non devi andare a pescarla dalla cache:)
mikael84
30-04-2016, 14:17
Facciamo un pò di totoquiz per ingannare l'attesa :D .
Secondo voi la 1060ti se avrà veramente 6gb ddr5 dove si potrebbe posizionare ? Sia Nvidia che AMD .
Se polaris, secondo quanto emerso dai rumors si allinea alla fury(980), significa che in 1080p starà sotto o in linea la x60ti o 1065. In fin dei conti riprende la 380x sulla fascia medio bassa.
Chiaramente la 480x si allinea in base alla CPU perchè se si parte da un 2500k o un 3570k, anche occato, la x60ti sarà di gran lunga preferibile.
Legolas84
30-04-2016, 14:27
Mikael, parli di polaris 10 o 11?
mikael84
30-04-2016, 14:33
Mikael, parli di polaris 10 o 11?
10. La 11 è fascia bassa, serie x70 AMD. VGA che se la vedrà con la 1050 o x50 GP106 sulle 150 euro
Se polaris, secondo quanto emerso dai rumors si allinea alla fury(980), significa che in 1080p starà sotto o in linea la x60ti o 1065. In fin dei conti riprende la 380x sulla fascia medio bassa.
Chiaramente la 480x si allinea in base alla CPU perchè se si parte da un 2500k o un 3570k, anche occato, la x60ti sarà di gran lunga preferibile.
Ma pensi che un i5 3570K possa soffrire a tenere una 1070 o 1080 ? .
Legolas84
30-04-2016, 14:35
Ah, cavolo.... speravo parlassi di 11... se 10 va a scontrarsi con la 1060Ti vuol dire che sarà davvero lenta.
Quindi non solo la 1080, ma anche la 1070 andrà da sola?
mikael84
30-04-2016, 14:43
Ma pensi che un i5 3570K possa soffrire a tenere una 1070 o 1080 ? .
Anche con Nvidia non è il top ma con AMD almeno per ora è sconsigliato, sopratutto su un 1080p
Ah, cavolo.... speravo parlassi di 11... se 10 va a scontrarsi con la 1060Ti vuol dire che sarà davvero lenta.
Quindi non solo la 1080, ma anche la 1070 andrà da sola?
La x80 si, la x70 idem ma potremmo assistere anche a scenari diversi sopratutto in 1440p e su certi giochi.
Teoricamente dovremmo avere x60ti e 480x sulla stessa fascia(300-350euro).
La 1080 dovrebbe vedersela con Vega 4096ST che uscirà però ad inizio 2017.
Legolas84
30-04-2016, 14:48
Si ma Vega non se la deve vedere con GP100? :fagiano:
Cioè nei primi 6 mesi del 2017 dovrebbero uscire GP100 e Vega, ma se Vega sarà prestazionale come GP104 allora la fascia di GP100 rimarrà scoperta?
mikael84
30-04-2016, 14:57
Si ma Vega non se la deve vedere con GP100? :fagiano:
Cioè nei primi 6 mesi del 2017 dovrebbero uscire GP100 e Vega, ma se Vega sarà prestazionale come GP104 allora la fascia di GP100 rimarrà scoperta?
Si tutto scoperto, anche se penso che vega almeno a partire da 1440p stia un tantino sopra GP104 full.
GP100 chiaramente sarà un mostro ma molto costoso.
Teoricamente Nvidia avrà terreno libero sulla fascia alta (completamente libero) e combatterà sulla media con x60ti. Quando vega coprirà dopo mesi la fascia GP104 (magari andando anche meglio per prezzo e prestazioni), Nvidia può giocarsi la Titan ed una x80ti senza problemi al prezzo che vuole.:)
Legolas84
30-04-2016, 14:58
Mamma mia che situazione grigia per AMD.... e probabilmente anche per tutti noi perchè senza concorrenza i prezzi possono solo salire.
Free Gordon
30-04-2016, 15:06
La situazione grigia sinceramente la vedo SOLO se Polaris10 (da 350$) non entra in diretta competizione con la 1060Ti...
Perchè una 1070 da 500$ e una 1080 da 650$ non credo siano fasce così remunerative a livello di market share globale..
Come sono messe le 980Ti su Steam come percentuali? Il concetto è lo stesso.
La fascia dove c'è la ciccia a quanto pare è quella sub 350$, con magari una falangina fino a 400. Il resto è "enthusiast" o fascia altissima come Titan & co.
Ovvio che in un forum di appassionati, questo discorso non ha senso. :D Un sacco di gente quì dentro ha schede da 500 carte in sù..
Legolas84
30-04-2016, 15:11
NVIDIA avendo due gpu che non hanno concorrenti può benissimo mettere i prezzi che preferisce a tutta la lineup.
Metti caso che GP104 esce prezzato come tutte le schede con declinazione 04 uscite fino ad ora.... ovvero la 1080 come la 980 e la 1070 come la 970.... e la 1060Ti ancora più sotto....
NVIDIA può benissimo farlo se vuole. Lo ha sempre fatto in passato guadagnando valanghe di soldi e raggiungendo un market share mostruoso.
AMD cosa farà? le sue scelte sono completamente subordinate a quelle della concorrenza.
Per noi che siamo disposti a spendere massimo 200€ conviene aspettare la 1060 a novembre o prendere una 970 usata quando usciranno le Pascal?
fraussantin
30-04-2016, 15:36
Si ma Vega non se la deve vedere con GP100? :fagiano:
Cioè nei primi 6 mesi del 2017 dovrebbero uscire GP100 e Vega, ma se Vega sarà prestazionale come GP104 allora la fascia di GP100 rimarrà scoperta?
Non credo che amd sia in grado ( economicamente parlando)di fare un qualcosa di simile al Gp100. Al massimo metteranno due vega sulla solita scheda
deadbeef
30-04-2016, 16:12
preparo il necrologio
NVIDIA avendo due gpu che non hanno concorrenti può benissimo mettere i prezzi che preferisce a tutta la lineup.
Metti caso che GP104 esce prezzato come tutte le schede con declinazione 04 uscite fino ad ora.... ovvero la 1080 come la 980 e la 1070 come la 970.... e la 1060Ti ancora più sotto....
NVIDIA può benissimo farlo se vuole. Lo ha sempre fatto in passato guadagnando valanghe di soldi e raggiungendo un market share mostruoso.
AMD cosa farà? le sue scelte sono completamente subordinate a quelle della concorrenza.
Speriamo che la concorrenza sulla fascia della 1070/polaris10 costringa a tenere prezzi contenuti e che quindi non ci siano salti enormi di prezzo per la fascia "full chip", sperando che Vega magari esca a dicembre!
Ma Polaris 10 non dovrebbe stare con la 1080?
preparo il necrologio
:rolleyes:
TigerTank
30-04-2016, 16:44
Perchè una 1070 da 500$ e una 1080 da 650$ non credo siano fasce così remunerative a livello di market share globale..
Il problema è che tanta gente appassionata vuole prestazioni e per questo è disposta a comprare schede costose, anche se la mancata concorrenza comporta dei sovrapprezzi da monopolio.
E di sicuro di 1080 ne andranno via non poche anche se le piazzeranno a tipo 600-650€, approfittando dell'assenza di soluzioni equivalenti più economiche, perchè unica scelta in caso di contesti a risoluzione/grafica spinta.
Anche Intel pompa i prezzi dei suoi processori....ma che alternative ci sono? :muro:
Legolas84
30-04-2016, 16:54
Il problema è che tanta gente appassionata vuole prestazioni e per questo è disposta a comprare schede costose, anche se la mancata concorrenza comporta dei sovrapprezzi da monopolio.
E di sicuro di 1080 ne andranno via non poche anche se le piazzeranno a tipo 600-650€, approfittando dell'assenza di soluzioni equivalenti più economiche, perchè unica scelta in caso di contesti a risoluzione/grafica spinta.
Anche Intel pompa i prezzi dei suoi processori....ma che alternative ci sono? :muro:
L'alternativa è che prima o poi qualcuno se ne esca davvero fuori con qualcosa di meglio della concorrenza... come fece AMD con l'Athlon64 o 3dfx con la Voodoo Graphics.... ma fino ad allora non vedo così facile un'inversione di tendenza....
fireradeon
30-04-2016, 16:54
E che ho detto io fino ad ora? Qui rischiamo seriamente sul prezzo della 1080
mikael84
30-04-2016, 17:27
E che ho detto io fino ad ora? Qui rischiamo seriamente sul prezzo della 1080
L'unico modo per far abbassare la cresta ad Nvidia è batterla. Se gli lasci la strada libera anche sui chippini, Nvidia ci sguazza alla grande e non vedo perchè non dovrebbe. Non è da condannare la strategia di AMD, ricordiamoci le 4870 ma per chi punta al top è fregato. Questo per dire non e che bisogna acquistare Nvidia per forza se la concorrenza propone qualcosa di veramente valido. Uno dev'essere messo in condizione di poter scegliere.
Il problema è che tanta gente appassionata vuole prestazioni e per questo è disposta a comprare schede costose, anche se la mancata concorrenza comporta dei sovrapprezzi da monopolio.
E di sicuro di 1080 ne andranno via non poche anche se le piazzeranno a tipo 600-650€, approfittando dell'assenza di soluzioni equivalenti più economiche, perchè unica scelta in caso di contesti a risoluzione/grafica spinta.
Anche Intel pompa i prezzi dei suoi processori....ma che alternative ci sono? :muro:
A questo giro ad Nvidia va tutto a pennello perchè può giocarsi tranquillamente gli scarti mal riusciti (x60ti/1065), senza inventarsi soluzioni alla 970. Levi direttamente un canale ram, tagliuzzi il chip e ti sei fatto la soluzione perfetta in fascia media.
Anche con Nvidia non è il top ma con AMD almeno per ora è sconsigliato, sopratutto su un 1080p
Mah... A me sembra che un i5 3570K sia piu' che valido per tutte le schede video ( singole ) di questa generazione , hai qualche test di giochi recenti da postare ? che lo mette in difficoltà a confronto di un i5 o i7 skylake ? :) .
Spider-Mans
30-04-2016, 18:28
Si ma Vega non se la deve vedere con GP100? :fagiano:
Cioè nei primi 6 mesi del 2017 dovrebbero uscire GP100 e Vega, ma se Vega sarà prestazionale come GP104 allora la fascia di GP100 rimarrà scoperta?
amd è "strategicamente" in ritardo da anni di cosa ti stupisci
la 1070 e 1080 come 970 e 980 avranno campo libero....ma la colpa è di nvidia immagino :asd:
Legolas84
30-04-2016, 18:48
ah ma è una strategia? Ora si spiega tutto :asd:
fraussantin
30-04-2016, 18:54
Non ci sto capendo più niente , a leggere qui sembra che amd non andra manco quanto una 1060.
A legger di la secondo qualcuno farà il fumo a una 980ti ...
Boh...
Polaris 11(quello piccolo) non è da sottovalutare, dato che copre il 50% del mercato, soprattutto quello notebook...
Se consumerà come una 750ti con prestazioni da 960, nvidia rimarrà scoperta per diversi mesi.
Arrow0309
30-04-2016, 19:03
NVIDIA to unveil next-gen GeForce on the same day as Battlefield 5
Link (http://www.tweaktown.com/news/51924/nvidia-unveil-next-gen-geforce-same-day-battlefield-5/index.html)
Rumor: NVIDIA GeForce GTX 1060 (Ti) could feature 6GB RAM
Link (http://videocardz.com/59471/nvidia-geforce-gtx-1060-ti-6gb-ram)
Ale55andr0
30-04-2016, 19:04
L'alternativa è che prima o poi qualcuno se ne esca davvero fuori con qualcosa di meglio della concorrenza... come fece AMD con l'Athlon64 o 3dfx con la Voodoo Graphics.... ma fino ad allora non vedo così facile un'inversione di tendenza....
senza polemica: ma quindi avete "deciso" che vega/polaris/quelcheè vga AMD andranno più piano delle nvidia? in base a cosa? :confused: o parlate di qualche fascia specifica? chiedo venia ma non ho capito (sonno arretrato :asd:)
Non ci sto capendo più niente , a leggere qui sembra che amd non andra manco quanto una 1060.
A legger di la secondo qualcuno farà il fumo a una 980ti ...
Boh...
ah allora non sono solo io ad aver avuto questa impressione :fagiano:
Spider-Mans
30-04-2016, 19:14
ah ma è una strategia? Ora si spiega tutto :asd:
quadrimensionalmente si :asd:
Legolas84
30-04-2016, 19:18
senza polemica: ma quindi avete "deciso" che vega/polaris/quelcheè vga AMD andranno più piano delle nvidia? in base a cosa? :confused: o parlate di qualche fascia specifica? chiedo venia ma non ho capito (sonno arretrato :asd:)
Guarda io non ho le competenze per fare previsioni, ma solo per analizzare le cose quando sono uscite.
Quindi qui si parlava facendo riferimento a Mikael che invece ha le competenze per fare previsioni che più di una volta ci hanno preso insieme a quelle di hwupgrade....
quadrimensionalmente si :asd:
http://i.imgur.com/XrTdxrq.png :O
deadbeef
30-04-2016, 19:25
Mikael qualche post fa ha scritto:
Si in linea di massima per potenza computazionale siamo tra 980/980ti, riferendosi alla 1070
Allora io mi chiedo, se Polaris 10 Ellesmere è in linea con la "Fury Series", che non vuol dire Fury liscia, che a sua volta va come una 980Ti@stock/Fury X (o 15% in meno nel caso della fury liscia), come fa P10 ad andare meno di una 1060 ?
qualcuno ha esperienza diretta con questo modem/router e il suo relativo chipset su DSLAM Alcatel per dare una testimonianza diretta di come funziona? (bene/male, aggancia più o meno portante di altro, instabilità della linea, etc)
/safequote
ecco... con questo abbiamo davvero toccato tutti gli argomenti! :O
ps: di che modello parli?! :D
/safequote
ecco... con questo abbiamo davvero toccato tutti gli argomenti! :O
ps: di che modello parli?! :D
ahah troppo schede aperte fanno fare confusione :D neanche l'edit veloce mi ha salvato dalla "figuraccia" :sofico:
/ot:
(comunque stavo valutando l'acquisto tra Archer D9 e il DLS N68U ho scritto nel thread giusto ora)
/fineot
Psycho77
30-04-2016, 19:36
Che serie c'è dopo Volta?Basterà per giocare a 1080p nativo?:fagiano:
https://youtu.be/jQ4weTdJrv0
Da 2.47 lo porta a 1080p nativo.:doh:
ahah troppo schede aperte fanno fare confusione :D neanche l'edit veloce mi ha salvato dalla "figuraccia" :sofico:
Una volta ero il mod più veloce del west... http://digilander.libero.it/arosati76/clinte.gif
:sofico:
Ale55andr0
30-04-2016, 20:39
Una volta ero il mod più veloce del west... http://digilander.libero.it/arosati76/clinte.gif
:sofico:
eri anche il più buono :asd: ma hai mai bannato qualcuno in vita tua? eri proprio l'antitesi di freeman: tu il buono, lui il cattivo, manca solo il brutto :asd:
fraussantin
30-04-2016, 20:43
Una volta ero il mod più veloce del west... http://digilander.libero.it/arosati76/clinte.gif
:sofico:
Ti hanno licenziato perchè eri dalla parte nostra ! XD
Ale55andr0
30-04-2016, 20:45
Ti hanno licenziano perchè eri dalla parte nostra ! XD
da mod era un rosso :O da quando non lo è più invece spara a zero sulle rosse :D
mikael84
30-04-2016, 22:24
Una volta ero il mod più veloce del west... http://digilander.libero.it/arosati76/clinte.gif
:sofico:
Onestamente Raven hai sempre moderato benissimo ed in momenti anche difficili. Lo stesso secondo me vale per gli altri mod. Il forum è sempre in ordine e fa davvero piacere seguirlo.;)
Mikael qualche post fa ha scritto:
Si in linea di massima per potenza computazionale siamo tra 980/980ti, riferendosi alla 1070
Allora io mi chiedo, se Polaris 10 Ellesmere è in linea con la "Fury Series", che non vuol dire Fury liscia, che a sua volta va come una 980Ti@stock/Fury X (o 15% in meno nel caso della fury liscia), come fa P10 ad andare meno di una 1060 ?
Molti confondono la 1060 gp106 con la gp104 1065/x60ti, ma sono due schede molto diverse.
La x60ti/1065 avrà due avversarie agguerrite, la P10 full e la p10 pro.
La 1070 in virgola mobile, computazionalmente sarà in linea con i 3072cc maxwell, quindi in base al clock sarà un tantino sopra sopratutto alle basse risoluzioni.
La x80 invece sarà sola, quindi è probabile che la polaris full stia a cavallo tra x60ti e x70 ed anche sopra in base ai titoli.
Su una base di 1080p la x60ti sarà molto competitiva ma già sui 1440p potrebbe cambiare.
Free Gordon
01-05-2016, 01:24
preparo il necrologio
:asd:
Free Gordon
01-05-2016, 01:26
A questo giro ad Nvidia va tutto a pennello perchè può giocarsi tranquillamente gli scarti mal riusciti (x60ti/1065), senza inventarsi soluzioni alla 970. Levi direttamente un canale ram, tagliuzzi il chip e ti sei fatto la soluzione perfetta in fascia media.
Non so però quanto le convenga uscire con un chip grosso un 35% in più, allo stesso prezzo. ;)
Kekko1978
01-05-2016, 09:20
Non so però quanto le convenga uscire con un chip grosso un 35% in più, allo stesso prezzo. ;)
In sostanza un chip una volta prodotto, esempio un GP104 (ma valeva anche per i primi Kepler GK104), li si valuta lo stato ed il LeakageID lo si destina ad un prodotto o ad un altro, quindi la dimensione in se non è un problema.
Se è un chip ha alto ASIC con problemi tali da doverlo "laserare" diventerà un prodotto basso(x60Ti), se è un alto ASCI senza problemi e/o un basso ASIC ma con problemi tali da doverlo "laserare" diventerà un prodotto medio (x70), se è un basso ASIC divernterà un prodotto alto(x80).
Perchè?
1) "ASIC Quality" (Leakage) alto -> Voltaggio a regime più basso, maggior assorbimento di corrente, temperature più elevate, efficienza energetica inferiore (a causa delle dispersioni elettriche);
2) "ASIC Quality" (Leakage) basso -> Voltaggio a regilme più alto, minor assorbimento di corrente, temperature più basse, efficienza energetica superiore (grazie alle minori dispersioni elettriche).
Vien da se che è meglio gestire tante unità(i.e. 3072 CC) con un ASCI quanto più basso possibile proprio perchè ha una dispersione minore rispetto a tante con un alta dispersione.
Da qui il barba-trucco di laserare un GP104 e farne 3 prodotti e non perderci un soldo, anzi con i prodotti "difettosi" ci fai comunque i soldi perchè non li devi buttare, la storia del GK110 insegna :read:
fraussantin
01-05-2016, 09:35
In sostanza un chip una volta prodotto, esempio un GP104 (ma valeva anche per i primi Kepler GK104), li si valuta lo stato ed il LeakageID lo si destina ad un prodotto o ad un altro, quindi la dimensione in se non è un problema.
Se è un chip ha alto ASIC con problemi tali da doverlo "laserare" diventerà un prodotto basso(x60Ti), se è un alto ASCI senza problemi e/o un basso ASIC ma con problemi tali da doverlo "laserare" diventerà un prodotto medio (x70), se è un basso ASIC divernterà un prodotto alto(x80).
Perchè?
1) "ASIC Quality" (Leakage) alto -> Voltaggio a regime più basso, maggior assorbimento di corrente, temperature più elevate, efficienza energetica inferiore (a causa delle dispersioni elettriche);
2) "ASIC Quality" (Leakage) basso -> Voltaggio a regilme più alto, minor assorbimento di corrente, temperature più basse, efficienza energetica superiore (grazie alle minori dispersioni elettriche).
Vien da se che è meglio gestire tante unità(i.e. 3072 CC) con un ASCI quanto più basso possibile proprio perchè ha una dispersione minore rispetto a tante con un alta dispersione.
Da qui il barba-trucco di laserare un GP104 e farne 3 prodotti e non perderci un soldo, anzi con i prodotti "difettosi" ci fai comunque i soldi perchè non li devi buttare, la storia del GK110 insegna :read:
Esatto.
E con questo sistema si puó sovraprezzare quello destinato alla 1080 per rendere concorrenziali gli altri.
Quello che è stato fatto con la 980 970 , e con la titan \980ti ..
Poi se veramente a sto giro amd "svenderà" polaris ( che qualcuno ipotizza avrà prestazioni da ti ..) non so quanto dovranno aprire la forbice... , ma cmq ne gioveremo tutti.
deadbeef
01-05-2016, 09:55
mi sa che non è proprio così che funziona, comunque stai occupando tot mmq sul wafer. L'esempio delle ultime vga può andare bene solo in virtù del fatto che si parla di un processo produttivo oramai all'apice della sua resa
Free Gordon
01-05-2016, 11:13
Da qui il barba-trucco di laserare un GP104 e farne 3 prodotti e non perderci un soldo, anzi con i prodotti "difettosi" ci fai comunque i soldi perchè non li devi buttare, la storia del GK110 insegna :read:
Il barbatrucco lo usano tutti da sempre ovviamente ma non funziona nel senso che l'hai scritto tu. :D
Dipende tutto dalla quantità di schede vendute sul mercato.
E' ovvio che conviene vendere (anche a meno) piuttosto che buttare :)
ma questo ha un senso solo quando o il pp non permette di avere un'alta % di chip completi funzionanti (basse rese ---> no good comunque per Nvidia...) o quando la % di chip venduti in fascia alta è più alta di quella venduti in fascia più bassa.
Ecco, questa nn credo sia proprio la situazione che stiamo analizzando...perchè se 1070 e 1080 sono schede da 450-500$ in sù...le di gran lunga più venute tra le 3 schede saranno le 1060Ti. ;)
Quindi chip da 330mmq, venduti al prezzo di chip la metà più piccoli (come quelli di AMD che pare avere un die di 230). Oppure se non si vorrà scendere a questo compromesso, ci sarà shortage...e attesa di schede sul mercato. ;) (attesa di 1060Ti in quanto non abbastanza chip in % vengono scartati e declassati).
Se invece le 1060Ti saranno tutte quante laserate, la perdita ci sarà già in partenza, perchè si dovrà vendere un GP104 al prezzo di un P10 nella maggioranza dei casi, per il motivo delle quote di mercato di cui sopra (molte poche persono acquistano schede da 400$ in sù nel mondo).
Se invece le 1070 costeranno come le 970, 350$, allora Nvidia avrà un'altra gallina dalle uova d'oro! :D
mikael84
01-05-2016, 11:20
Non so però quanto le convenga uscire con un chip grosso un 35% in più, allo stesso prezzo. ;)
E che fai disegni un core per ogni chip andato male?
Durante il processo di fabbricazione tantissimi chip risultano non buoni per varie caratteristiche.
Wafer medio, ottimi al centro, non riusciti ai bordi
http://i63.tinypic.com/fn5vm1.png
Wafer non ottimo, troppi chip centrali con perdite o non conformi
http://i64.tinypic.com/2llge8m.png
Wafer totalmente andato male sia al centro che nei bordi, andrà riesaminato
http://i67.tinypic.com/14yc1ox.png
YesManYes
01-05-2016, 11:23
Geforce GTX 1080 8GB GDDR5X Graphics Card with the GP104-400-A1 GPU
Status: Confirmed
Reveal: Editor’s Event 6th May
Paper Launch: Computex 2016
Availability: June 2016
NVIDIA GP104-400-A1
The flagship graphic card of this year, and the first GPU to utilize the brand new GDDR5X standard from Micron, the Nvidia GTX 1080 will be one impressive card. Rocking the GP104-400-A1 GPU flavor the card is expected to feature 2560 CUDA Cores (given a few assumptions about GPCs and the brand new Pascal Architecture). Given that the die size is around the 300mm² mark, we are looking at performance levels roughly faster than the GTX 980 Ti (depending on how it is clocked).
NVIDIA GeForce GTX 1080 and GeForce GTX 1070 With Pascal GPUs Under Full Production - Rumors Point to Computex Reveal
Although there have been multiple leaks about the Geforce GTX 1080 in the last few weeks, this close to the reveal, its pointless to speculate further regarding the specifications of Nvidia’s upcoming GPU. Here is what we do know for sure: Nvidia’s Pascal architecture will be manufactured on the 16nm FinFET process (which inherently brings a 2x Perf/Watt increase). GP100 focused on increasing gimped FP64 performance (that Maxwell suffered from) so the GP104 is expected to focus primarily on single precision performance (good news for games).
Geforce GTX 1070 8GB GDDR5with the GP104-200-A1 GPU
Status: Confirmed
Reveal: Editor’s Event 6th May
Paper Launch: Computex 2016
Availability: June 2016
NVIDIA GP104-200-A1_2
This particular piece of graphics technology will feature a cut down GP104 chip. Depending on the amount of Streaming Multiprocessors axed (SMs) you are looking at CUDA Cores in the range of 2048. Considering that the GTX 980 itself had 2048 CUDA Cores, you are looking at a beast of a graphics card (and probably an insane overclocker). Depending on how Nvidia plays the pricing game, this could constitute the sweet spot for value seekers in Nvidia’s 16nm FinFET lineup. We got some beautiful die shots already so we will definitely be seeing this card soon. In my opinion it will probably be priced around the $449 to $549 mark.
The Geforce GTX 1060 (Ti) 6GB GDDR5 with the GP104-150-A1 GPU
Status: Rumored
Reveal: Editor’s Event 6th May (TBC)
Availability: Fall 2016 (TBC)
Various entries for potential Pascal based graphic cards were spotted at 3D Mark a while ago. And if they are anything to go by, Pascal architecture has incredible potential. Which means the GTX 1060 Ti will be nothing to sneeze at. If clocked high enough, the card could even be powerful enough to near the VR minimum spec (GTX 970 performance levels) which will allow Nvidia to market an additional VR ready GPU. The fact that the card has 6GB worth of GDDR5 means that it features a 192 bit bus.
There has existed a gap in Nvidia’s lineup of GPUs which this card could very well fill. VR is the next frontier for GPU manufacturers to concur. With a high attach rate, and a relatively small Total Addressable Market, the race is on to see who can put the most VR capable GPUs out there. The Total Available Market for VR is currently limited by the amount of high end cards on the market right now (GTX 970/R9 290 and above).
If entry-level graphic cards like the GTX 1060 (Ti) can reach the VR minimum spec (roughly 3.5 TFLOPS) then it will expand the market potential by several factors – driving the growth of VR on PC and matching the value proposition of products like the PSVR. AMD has recently vowed to lower the price of the “minimum VR spec” and this could be Nvidia’s attempt to do the same, which would put the price point anywhere between $249 to $329.
http://abload.de/img/immagine.12sdw.jpg (http://abload.de/image.php?img=immagine.12sdw.jpg)
ecc (GP106) ecc ecc
Read more: http://wccftech.com/geforce-gtx-1080-gtx-1070-launching-6th-may-market-june/#ixzz47OkhUmnG
fraussantin
01-05-2016, 11:31
Il barbatrucco lo usano tutti da sempre ovviamente ma non funziona nel senso che l'hai scritto tu. :D
Dipende tutto dalla quantità di schede vendute sul mercato.
E' ovvio che conviene vendere (anche a meno) piuttosto che buttare :)
ma questo ha un senso solo quando o il pp non permette di avere un'alta % di chip completi funzionanti (basse rese ---> no good comunque per Nvidia...) o quando la % di chip venduti in fascia alta è più alta di quella venduti in fascia più bassa.
Ecco, questa nn credo sia proprio la situazione che stiamo analizzando...perchè se 1070 e 1080 sono schede da 450-500$ in sù...le di gran lunga più venute tra le 3 schede saranno le 1060Ti. ;)
Quindi chip da 330mmq, venduti al prezzo di chip la metà più piccoli (come quelli di AMD che pare avere un die di 230). Oppure se non si vorrà scendere a questo compromesso, ci sarà shortage...e attesa di schede sul mercato. ;) (attesa di 1060Ti in quanto non abbastanza chip in % vengono scartati e declassati).
Se invece le 1060Ti saranno tutte quante laserate, la perdita ci sarà già in partenza, perchè si dovrà vendere un GP104 al prezzo di un P10 nella maggioranza dei casi, per il motivo delle quote di mercato di cui sopra (molte poche persono acquistano schede da 400$ in sù nel mondo).
Se invece le 1070 costeranno come le 970, 350$, allora Nvidia avrà un'altra gallina dalle uova d'oro! :D
Soprattutto se sono veri gli ultimi bench che polaris va come una 390x
YesManYes
01-05-2016, 11:43
Per GP102 bisogna trovare i punti deboli di Pascal e creare un "maxwell 2,0" che copra tutte le fasce, altrimenti GP102 va a posizionarsi sopra il chippone che a sto giro avrà nuove vette
L'unico punto debole di Pascal GP100 per quel poco che ne capisco io è quello che ho scritto sopra...che poi non è un punto debole, visto che nvidia rivende quella gpu per più mercati dove quella parte hw che spreca spazio e transistor serve.
Un ulteriore gpu forte solo in FP32 sarebbe fattibile come scheda che batte le GP100...
ma....*
Volta GV104 avrà un rapporto flops per watt doppio, quindi dovremmo avere una sorta di 3820cc/4096cc su un range di 1800-1900 (+25/35% per transistor)
GV100 6144cc su un core da 1800-1900 e ti esce un raddoppio perfetto su GP100
Su volta bisogna fantasticare su roadmap, poi vedere passo per passo, anche se l'unica cosa confermata dovrebbe essere appunto il raddoppio flops per watt
Con la massima espressione di Volta, ci sarà quel risultato, ma
*potrebbero lanciare un Volta 1.0 che fa meglio di Pascal come dicevo in quel post.... ovviamente sempre un ipotesi eh... ma nvidia ogni volta se ne esce con un architettura nuova è migliore della precedente.. quindi se serve una nuova serie come ponte tra le 16nm e le 7nm una serie Volta se desse risultati migliori di un GP102
Oppure il GP102 come pensi tu..(ma lo ipotizzai anche io pagine fa.... ma DOPO il GP100)
poi ci sta che alla fine non ci sarà bisogno di nessuno dei due, ne GP102 e neanche un Volta 1.0 :asd:
YesManYes
01-05-2016, 11:49
il GP102 lo ipotizzai anche io ma lo sai cosa mi fa venire un dubbio Mikael... ???
siamo sicuri che un chippone (deve andare più forte della GP100) con tutti quei shader sia possibile realizzarlo con l'efficenza di Pascal?
perchè già il GP100 me la immagino come una scheda GeForce che consumerà parecchio....figuriamoci una 4500sp e passa... mi pare che la ipotizzasti così (che poi era la stessa ipotesi mia più o meno)
Per quello se loro hanno già un progetto di una architettura più efficente cioè Volta... ipotizzavo un tappabuchi tra due generazioni fatto con questa nuova architettura...
mikael84
01-05-2016, 13:49
Cut.
Si siamo in linea perfetta con quanto avevo già pronosticato inizialmente.
Io però alla 1065/x60ti davo almeno 1664cc, con 1536cc si perdono troppe risorse.
1536cc sono 2048cc maxwell base, rops 48 ma con una decurtazione così si avranno risultati più da 40.
Sta di fatto che una x60ti/1065 avrà un teorico di 5,5TF a 1800mhz(sempre se ci arriva) ed una 980 a 1550mhz arriva a 6,35tf.
Fill rate compreso tra i 59,6gpixel/71gpixel contro i 70gpixel base di una 980.
Se non programmi specificatamente per i 64 thread, una 980 in OC spesso e volentieri almeno con i giochi attuali andrà meglio.
Qua siamo al fail mostruoso perchè la 1065/x60ti non sarà poi distante dalla 970 a pari fascia ma l'unico vantaggio l'avrebbe avuto su una 960ti (1280cc) mai realizzata.
La x70 sarà al 99% una Titan x con meno banda e più istruzioni.
L'unico punto debole di Pascal GP100 per quel poco che ne capisco io è quello che ho scritto sopra...che poi non è un punto debole, visto che nvidia rivende quella gpu per più mercati dove quella parte hw che spreca spazio e transistor serve.
Un ulteriore gpu forte solo in FP32 sarebbe fattibile come scheda che batte le GP100...
ma....*
Con la massima espressione di Volta, ci sarà quel risultato, ma
*potrebbero lanciare un Volta 1.0 che fa meglio di Pascal come dicevo in quel post.... ovviamente sempre un ipotesi eh... ma nvidia ogni volta se ne esce con un architettura nuova è migliore della precedente.. quindi se serve una nuova serie come ponte tra le 16nm e le 7nm una serie Volta se desse risultati migliori di un GP102
Oppure il GP102 come pensi tu..(ma lo ipotizzai anche io pagine fa.... ma DOPO il GP100)
poi ci sta che alla fine non ci sarà bisogno di nessuno dei due, ne GP102 e neanche un Volta 1.0 :asd:
GV104 seguirà un PP apposito, altrimenti non avrebbe senso in rapporto.
GV104 sarà il chip decurtato di volta full con il prossimo step.
il GP102 lo ipotizzai anche io ma lo sai cosa mi fa venire un dubbio Mikael... ???
siamo sicuri che un chippone (deve andare più forte della GP100) con tutti quei shader sia possibile realizzarlo con l'efficenza di Pascal?
perchè già il GP100 me la immagino come una scheda GeForce che consumerà parecchio....figuriamoci una 4500sp e passa... mi pare che la ipotizzasti così (che poi era la stessa ipotesi mia più o meno)
Per quello se loro hanno già un progetto di una architettura più efficente cioè Volta... ipotizzavo un tappabuchi tra due generazioni fatto con questa nuova architettura...
GP102 l'ho ipotizzato come un possibile tapabucchi in attesa del nuovo step, molti lo ipotizzano invece come diretto x80ti (ma chiaramente sanno poco di microarchitettura).
Tutte le news prese su wccftech-3dcenter-videocardz, sono prese da utenti del forum.
Immagina se Hwu scrive tutte le mie teorie ogni volta (o le tue ad esempio).
Molte ipotesi, da loro scritte, dimostrano che di microarchittura non hanno neppure le basi.
GP100 x80ti sarà decurtato di qualche SM e magari ti danno quei 3300cc come la 780ti. Oppure levano la DP pure qua e ti esce un GP102 con FP32/FP16 e relativo core.
Qua bisognerebbe calcolare le rese senza DP e vedere che si può tirare fuori.
Fatto ciò analizzi il chip e trovi i punti deboli, scarti le connessioni lente, migliori con transistor a bassa perdita e provi a realizzare un chip alla maxwell 2,0, con clock leggermente più elevati, maggiori istruzioni e implementare i cc.
GP102 così alla bruta sarebbe traumatico, perchè se oggi paghi un chip 650 euro, il chippone lo paghi 850/900, GP102 1200 almeno.
Quindi per dar vita ad un gp102 maxwell 2,0 devi sistemare anche le altre fasce.
deadbeef
01-05-2016, 15:13
speriamo non costino una fucilata
siamo sicuri che un chippone (deve andare più forte della GP100) con tutti quei shader sia possibile realizzarlo con l'efficenza di Pascal?
perchè già il GP100 me la immagino come una scheda GeForce che consumerà parecchio....figuriamoci una 4500sp e passa... mi pare che la ipotizzasti così (che poi era la stessa ipotesi mia più o meno)
Per quello se loro hanno già un progetto di una architettura più efficente cioè Volta... ipotizzavo un tappabuchi tra due generazioni fatto con questa nuova architettura...
da quello che so, le unità destinate al fp64 consumano più delle unità fp32, e il tutto tornerebbe con quanto ha dimostrato Maxwell che sullo stesso pp è riuscito comunque ad abbassare i consumi in maniera sensibile (oltre all'efficienza dell'architettura) nonostante aumentassero il numero di cc "destinati al gaming" e la soglia delle frequenze...correggetemi se sbaglio
Se invece le 1070 costeranno come le 970, 350$, allora Nvidia avrà un'altra gallina dalle uova d'oro! :D
non ci sperano in molti, ma credo che come street price si troveranno per le 1070 custom "buone" (msi gaming, gigabyte g1, etc) sui 380-390€ (veramente difficile che superino la soglia dei 400€)...a conti fatti in linea con quanto si trovavano le 970 nei primi mesi dal lancio
E che fai disegni un core per ogni chip andato male?
Tralasciando le strategia di mercato, un chip da 230mm2 ha il 50% di die in più per wafer, questo senza contare le rese che da quello che si sente in giro non sono emozionanti.
Un costo per die funzionante (castrato o meno) vicino al doppio, non credo sia molto lontano dalla verità (considerando le rese)...
Kekko1978
01-05-2016, 18:03
Il barbatrucco lo usano tutti da sempre ovviamente ma non funziona nel senso che l'hai scritto tu. :D
Dipende tutto dalla quantità di schede vendute sul mercato.
E' ovvio che conviene vendere (anche a meno) piuttosto che buttare :)
ma questo ha un senso solo quando o il pp non permette di avere un'alta % di chip completi funzionanti (basse rese ---> no good comunque per Nvidia...) o quando la % di chip venduti in fascia alta è più alta di quella venduti in fascia più bassa.
Ecco, questa nn credo sia proprio la situazione che stiamo analizzando...perchè se 1070 e 1080 sono schede da 450-500$ in sù...le di gran lunga più venute tra le 3 schede saranno le 1060Ti. ;)
Quindi chip da 330mmq, venduti al prezzo di chip la metà più piccoli (come quelli di AMD che pare avere un die di 230). Oppure se non si vorrà scendere a questo compromesso, ci sarà shortage...e attesa di schede sul mercato. ;) (attesa di 1060Ti in quanto non abbastanza chip in % vengono scartati e declassati).
Se invece le 1060Ti saranno tutte quante laserate, la perdita ci sarà già in partenza, perchè si dovrà vendere un GP104 al prezzo di un P10 nella maggioranza dei casi, per il motivo delle quote di mercato di cui sopra (molte poche persono acquistano schede da 400$ in sù nel mondo).
Se invece le 1070 costeranno come le 970, 350$, allora Nvidia avrà un'altra gallina dalle uova d'oro! :D
Evito ragionamenti su base ipotesi, se torni al GK104 e Tahiti quanti chip hanno prodotto con il cambio ai 28nm?
3 per ogni casa: GTX 680/670/660Ti, Tahiti XT, Pro, LE.
Ogni nuovo processo ha i suoi rischi, con il tempo si affina.
YesManYes
01-05-2016, 18:22
da quello che so, le unità destinate al fp64 consumano più delle unità fp32, e il tutto tornerebbe con quanto ha dimostrato Maxwell che sullo stesso pp è riuscito comunque ad abbassare i consumi in maniera sensibile (oltre all'efficienza dell'architettura) nonostante aumentassero il numero di cc "destinati al gaming" e la soglia delle frequenze...correggetemi se sbaglio
Big Maxwell portava ad un numero di shader maggiore rispetto a Big Kepler di solo un 5-7%...
L'architettura è migliore. gli shader di Maxwell sono più potenti di quelli di Kepler...
e quindi con una Gpu un 5-7% più grande di quella della 780ti sono riusciti a fare la 980ti che va nettamente di più...
oltre a quel 5-7% di spazio per qualche transistor in più c'è da considerare tutto lo spazio liberato dalle unità fp64 non presenti su quella gpu....
una 780ti valutando la gpu solo per la parte gaming non avrebbe 7100m di transistors...ma ne avrebbe di meno.... e sarebbe anche più piccola come GPU.... tolto l'hw fp64...
ecco perchè, grazie ad una nuova architettura + efficente, una gpu un pizzico più grande, e concentrata sulle performance FP32,con i transistors (8000M) spesi tutti per quello, riesce a battere GPU come le Titan -black / 780ti...
Ma in alcuni forum si leggeva di una 1080ti fatta (almeno mikael [ed anche io] la ipotizzavamo dopo GP100) con la solita architerttura Pascal e 4500sp...
ed una gpu del genere , senza cambiamenti della architettura, imho consumerebbe troppo...
La 1080Ti sarà su GP100 e sarà la classica scheda con i consumi al limite della categoria di fascia enthusiast... (come lo sono state le varie Titan , 780ti , 980ti , Fury ecc) ....e se poi butti fuori una GP102 incentrata sulle perfomance fp32, con 4500sp come lessi in giro...certo a livello di die size ti ci può anche stare... rifacendo un chippone...
ma senza miglioramenti in efficenza fai una fornace, una centrale elettrica improponibile secondo me... poi può essere che mi sbagli...
ma imho per fare una gpu del genere ci vogliono ulteriori miglioramenti rispetto a Pascal...e se davvero ci sarà un tappabuchi, e non sarà Volta... ci vuole almeno un Pascal 2.0....
YesManYes
01-05-2016, 18:45
Si siamo in linea perfetta con quanto avevo già pronosticato inizialmente.
Io però alla 1065/x60ti davo almeno 1664cc, con 1536cc si perdono troppe risorse.
1536cc sono 2048cc maxwell base, rops 48 ma con una decurtazione così si avranno risultati più da 40.
Sta di fatto che una x60ti/1065 avrà un teorico di 5,5TF a 1800mhz(sempre se ci arriva) ed una 980 a 1550mhz arriva a 6,35tf.
Fill rate compreso tra i 59,6gpixel/71gpixel contro i 70gpixel base di una 980.
Se non programmi specificatamente per i 64 thread, una 980 in OC spesso e volentieri almeno con i giochi attuali andrà meglio.
Qua siamo al fail mostruoso perchè la 1065/x60ti non sarà poi distante dalla 970 a pari fascia ma l'unico vantaggio l'avrebbe avuto su una 960ti (1280cc) mai realizzata.
io mi aspettavo 1920sp...
cmq per le X60 non c'è nulla di ufficiale... potrebbero uscire con un n di shader come pensavi tu...
La x70 sarà al 99% una Titan x con meno banda e più istruzioni.
non male eh... anche se da una X70 su nuovo pp ci stava bene almeno un 15% sul chippone precedente...
ma questa volta forse davvero non si riesce... e c'è anche una valida ragione...
GV104 seguirà un PP apposito, altrimenti non avrebbe senso in rapporto.
Pensi che a parità di pp la nuova architettura non darebbe già un qualche tipo di ulteriore miglioramento rispetto a Pascal?
GV104 sarà il chip decurtato di volta full con il prossimo step.
perchè pensi questo?
Molte ipotesi, da loro scritte, dimostrano che di microarchittura non hanno neppure le basi.
eh mi sa...
GP100 x80ti sarà decurtato di qualche SM e magari ti danno quei 3300cc come la 780ti. Oppure levano la DP pure qua e ti esce un GP102 con FP32/FP16 e relativo core.
Qua bisognerebbe calcolare le rese senza DP e vedere che si può tirare fuori.
imho il GP100 alla fine uscirà completo anche come Geforce... ma non con il GP100 A1....
Fatto ciò analizzi il chip e trovi i punti deboli, scarti le connessioni lente, migliori con transistor a bassa perdita e provi a realizzare un chip alla maxwell 2,0, con clock leggermente più elevati, maggiori istruzioni e implementare i cc. però con questi cambiamenti non sarebbe più Pascal/GP102...
GP102 così alla bruta sarebbe traumatico, perchè se oggi paghi un chip 650 euro, il chippone lo paghi 850/900, GP102 1200 almeno.
cmq non batterà mai i prezzi del chippone in versione titan, che imho toccherà i 1500€ :asd:
Quindi per dar vita ad un gp102 maxwell 2,0 devi sistemare anche le altre fasce.
Chiamiamolo GP202 Pascal 2.0... :asd:
Free Gordon
02-05-2016, 01:14
E che fai disegni un core per ogni chip andato male?
No...lo mettono in una fascia di scarto, ma sempre superiore. ;)
L'unico scarto di GP104 sarà la 1070, perchè se gli escono troppe 1060Ti (che credo abbiano introdotto dopo aver scoperto la collocazione di P10 ;) ), in un modo o nell'altro ci perdono.
Cioè significa che hanno tarato male il chip per il tipo di fascia a cui è destinato.
Oppure la loro idea era di uscire da subito con 1070 e 1080, dirette eredi di 970/980...allora a quel punto è AMD ad aver fatto i conti senza l'oste.. ;)
Free Gordon
02-05-2016, 01:24
Evito ragionamenti su base ipotesi, se torni al GK104 e Tahiti quanti chip hanno prodotto con il cambio ai 28nm?
3 per ogni casa: GTX 680/670/660Ti, Tahiti XT, Pro, LE.
Ogni nuovo processo ha i suoi rischi, con il tempo si affina.
Ovvio.. :) ma nel caso di AMD, proprio per il fatto di avere un die più grosso, la LE da 24cu è stata fatta solo ed unicamente per non buttare via i chip venuti male, e non come strategia di mercato per aggredire la fascia più remunerativa e venduta (proprio come numero di unità). ;)
TigerTank
02-05-2016, 08:47
le gpu/cpu sono come il maiale, non si butta via niente :D
Kekko1978
02-05-2016, 09:25
Ovvio.. :) ma nel caso di AMD, proprio per il fatto di avere un die più grosso, la LE da 24cu è stata fatta solo ed unicamente per non buttare via i chip venuti male, e non come strategia di mercato per aggredire la fascia più remunerativa e venduta (proprio come numero di unità). ;)
Ed è quello che ho scritto su :cool:
Vedi il die size del GP104 e quanto sono Tahiti e GK104, la possibilità di fare 3 chip è reale, primariamente proprio per non perdere chip.
Poi ora, dobbiamo tenere conto che i nuovi saranno prodotti da un lato da TSMC(16nm FinFet Nvidia) e l'altro dalla Globalfoundries (14nm AMD).
le gpu/cpu sono come il maiale, non si butta via niente :D
C'è una cosa che non mi è chiara però.
Nvidia non fa produzione, quindi ordina ad una azienda terza un tot numero di gpu (ovviamente perfettamente funzionanti): perchè dovrebbe preoccuparsi degli scarti?
Non è un suo problema, ma di chi produce no? :mbe:
CiccoMan
02-05-2016, 09:28
C'è una cosa che non mi è chiara però.
Nvidia non fa produzione, quindi ordina ad una azienda terza un tot numero di gpu (ovviamente perfettamente funzionanti): perchè dovrebbe preoccuparsi degli scarti?
Non è un suo problema, ma di chi produce no? :mbe:
Se il chip è più costoso anche nvidia lo paga di più... mica le fonderie fanno regali :stordita:
Poi va a finire che devono prezzare le vga top a 1000$... :rolleyes:
Legolas84
02-05-2016, 09:38
NVIDIA è in una posizione tale, che se anche dovesse vendere il GP104 sulla fascia della 1060Ti come sembra, non ci andrà di certo in perdita. Semplicemente ci guadagnerà un pò meno del solito, ma pensate davvero sia un problema per un'azienda che a livello di $$$ ha una situazione più che solida?
Kekko1978
02-05-2016, 09:40
:rotfl:
---
non penso che la 1060ti nasca dopo per contrastare una derivazione di P10, altrimenti nvidia la farebbe uscire subito e non dopo, sarà una scheda derivata dagli scarti del gp104 e dalle loro stime non pensano di averne molti subito si aspettano ottime rese con 300mmq e quindi se hai chip adeguati ti conviene identificarli come 1070 e 1080 non di certo come 1060ti dal costo sul mercato inferiore, quando poi avranno scorte a sufficienza di chip classificati come 1060ti allora la metteranno in commercio e prevederanno di farlo dopo 4 mesi circa.
il problema per nvidia sarà come li prezzeranno al lancio e se potranno abbassare i prezzi mantenendo un buon guadagno dato che P10 si è capito che avrà uno perf/price superiore così come il costo dei/wafer per loro.
ad esempio: P10 xt a 350$ con prestazioni simili o inferiore del 5~10% ad una 1070 prezzata a 500$
Personalmente, ritengo molto più importante come saranno prodotti e sviluppati i giochi, di quanto sia ora le perf/price su base bench DX11, oggi i vantaggi da una casa all'altra dipendono sostanzialmente da questo.
L'altro giorno Guru3d ha aggiornato i test in DX12 di Hitman, questo mi lascia mooolto perplesso, poichè le performance sono assai chiare da un lato.
Pascal come si legge in giro(io rimango del partito di San Tommaso) potrebbe avere ancora limite dell'ACE come Maxwell e perdere non poco su tutti quei titoli che nascono per console e poi sono dei porting(fatti con i piedi per lo più) su PC, dove si fà un abuso dell'ACE per massimizzare le prestazioni sulle console.
Staremo a vedere....
di solito paghi il wafer e non il singolo die funzionante a parte accorto speciali come quello fatto tra amd e gf per il bulldozer
quindi più die funzioanti hai a wafer e più il costo/die diminuisce e ci guadagni di più, e poi perchè buttarli? fai una fascia commerciale sotto.
Premesso che non sono un intenditore del settore, però commercialmente mi sembra un po' difficile come forma contrattuale: io cliente acquisto un prodotto, mica un processo produttivo....:mbe:
Che poi sia difficile da ottenere ci sta, ed allora mi verrà fatto pagare maggiormente, ma trovo difficile parlare di acquisto della materia prima se a me interessa il prodotto finale.
Voglio dire: quando vai ad acquistare una automobile, mica ti preoccupi dell'acquisto dell'acciaio necessario alla sua produzione no?:mbe:
:rotfl:
---
non penso che la 1060ti nasca dopo per contrastare una derivazione di P10, altrimenti nvidia la farebbe uscire subito e non dopo, sarà una scheda derivata dagli scarti del gp104 e dalle loro stime non pensano di averne molti subito si aspettano ottime rese con 300mmq e quindi se hai chip adeguati ti conviene identificarli come 1070 e 1080 non di certo come 1060ti dal costo sul mercato inferiore, quando poi avranno scorte a sufficienza di chip classificati come 1060ti allora la metteranno in commercio e prevederanno di farlo dopo 4 mesi circa.
il problema per nvidia sarà come li prezzeranno al lancio e se potranno abbassare i prezzi mantenendo un buon guadagno dato che P10 si è capito che avrà uno perf/price superiore così come il costo dei/wafer per loro.
ad esempio: P10 xt a 350$ con prestazioni simili o inferiore del 5~10% ad una 1070 prezzata a 500$
Credo saremo più o meno a quei livelli.
Ho guardato lo storico dei prezzi al lancio dei primi chip a 28nm:
HD 7870 GHz Edition - 212 mmq - 350$
GeForce GTX 680 - 294 mmq - 500$
Entrambi sono più piccoli di quelli attuali ma tenendo in considerazione che sia gtx 1070 che r9 480 dovrebbero essere entrambi basati su chip non totalmente funzionanti i prezzi credo coincideranno.
Poi le prestazioni effettive e le vendite assesteranno i prezzi, ma essendo entrambe architetture mature e moderne non credo ci saranno sorprese stile FX 5800 o hd 2900, leggasi fail clamorosi :D
Kekko1978
02-05-2016, 09:46
Premesso che non sono un intenditore del settore, però commercialmente mi sembra un po' difficile come forma contrattuale: io cliente acquisto un prodotto, mica un processo produttivo....:mbe:
Che poi sia difficile da ottenere ci sta, ed allora mi verrà fatto pagare maggiormente, ma trovo difficile parlare di acquisto della materia prima se a me interessa il prodotto finale.
Voglio dire: quando vai ad acquistare una automobile, mica ti preoccupi dell'acquisto dell'acciaio necessario alla sua produzione no?:mbe:
Nessuno di noi conosce gli accordi commerciali, però sta di fatto che per esempio TSMC produce il wafer ed il numero dei chip utili e funzionanti, poi dopo di questi viene fatta un ulteriore selezione e destinazione d'uso.
I migliori alla fascia Top e poi a scalare soprattutto all'inizio, poi dopo come visto nei 28nm, affinato il sistema faranno solo due soluzioni per chip e non tre come all'inizio.
Nessuno di noi conosce gli accordi commerciali, però sta di fatto che per esempio TSMC produce il wafer ed il numero dei chip utili e funzionanti, poi dopo di questi viene fatta un ulteriore selezione e destinazione d'uso.
I migliori alla fascia Top e poi a scalare soprattutto all'inizio, poi dopo come visto nei 28nm, affinato il sistema faranno solo due soluzioni per chip e non tre come all'inizio.
Si, questo è ovvio, i big-chip non perfetti possono esser riciclati come chip di categoria inferiore decurtando la parte non funzionante, questo avviene da sempre credo.
Quello che intendevo dire è che secondo me (che ovviamente non conosco minimamente questo mercato) il riciclo dei chip non è tanto un problema di AMD/Nvidia in quanto credo che loro paghino un tot a chip a prescindere da quanti ne vengono fuori da ciascun wafer, quanto piuttosto di chi fisicamente li produce questi chip
TigerTank
02-05-2016, 10:04
NVIDIA è in una posizione tale, che se anche dovesse vendere il GP104 sulla fascia della 1060Ti come sembra, non ci andrà di certo in perdita. Semplicemente ci guadagnerà un pò meno del solito, ma pensate davvero sia un problema per un'azienda che a livello di $$$ ha una situazione più che solida?
Ma infatti bisogna ragionare in termini di grossisti, possono fare variazioni in base alla situazione ma l'utile bello corposo c'è sempre, un pò più o un pò meno...e considerando anche la quota di invenduto che resta, per la quale ci sono stati comunque dei costi di produzione.
Tolti questi ultimi, le spese pubblicitarie e le spese di progettazione, a me non dispiacerebbe vedere il valore effettivo di fabbrica delle vga che compriamo. :)
Ma infatti bisogna ragionare in termini di grossisti, possono fare variazioni in base alla situazione ma l'utile bello corposo c'è sempre, un pò più o un pò meno...e considerando anche la quota di invenduto che resta, per la quale ci sono stati comunque dei costi di produzione.
Tolti questi ultimi, le spese pubblicitarie e le spese di progettazione, a me non dispiacerebbe vedere il valore effettivo di fabbrica delle vga che compriamo. :)
No beh, questa è comunque una battaglia persa, ci si ritroverebbe inevitabilmente in un contesto simile a quello dell'Iphone, dove a fronte di circa 250 dollari di costo di produzione tu cliente ne paghi 700-800.
Il mio ragionamento era riferito al fatto che secondo molti Nvidia dovrebbe preoccuparsi di studiare delle configurazioni low-end per riciclare i chip difettosi, cosa che secondo me a nvidia interessa fino ad un certo punto, visto che gli scarti di produzione sono di chi li produce, e non del cliente... :mbe:
TigerTank
02-05-2016, 10:25
No beh, questa è comunque una battaglia persa, ci si ritroverebbe inevitabilmente in un contesto simile a quello dell'Iphone, dove a fronte di circa 250 dollari di costo di produzione tu cliente ne paghi 700-800.
Il mio ragionamento era riferito al fatto che secondo molti Nvidia dovrebbe preoccuparsi di studiare delle configurazioni low-end per riciclare i chip difettosi, cosa che secondo me a nvidia interessa fino ad un certo punto, visto che gli scarti di produzione sono di chi li produce, e non del cliente... :mbe:
Quella sopra circa il paragone con il maiale era una battuta circa cpu e gpu deviate su eventuali modelli inferiori...ma penso sia scontato che capitino anche degli scarti effettivi al di fuori di ogni possibilità di utilizzo. Credo sia impossibile che si abbia una produttività del 100% :)
Per il resto circa la qualità dei silici vediamo tutti che a parità di gpu per quel preciso modello di scheda, abbiamo poi una grande varietà di situazioni di resa effettiva in overclock...dagli esemplari spettacolari ai chiodi :D
Magari certi riutilizzi non li possono fare perchè c'è comunque un minimo livello di qualità, durabilità ed affidabilità da garantire, sia per legge che per la loro stessa immagine.
il costo di cio che si compra è inevitabilmente legato al costo iniziale di produzione,
il cliente paga ma che piaccia o meno in quel prezzo c'è incluso anche l eventuale costo maggiorato della materia prima che sia acciaio silicio o quel che sia.
Se produrre o stampare un determinato chip costa tanto alla fonderia costerà a tutti piu caro.
mikael84
02-05-2016, 10:28
No...lo mettono in una fascia di scarto, ma sempre superiore. ;)
L'unico scarto di GP104 sarà la 1070, perchè se gli escono troppe 1060Ti (che credo abbiano introdotto dopo aver scoperto la collocazione di P10 ;) ), in un modo o nell'altro ci perdono.
Cioè significa che hanno tarato male il chip per il tipo di fascia a cui è destinato.
Oppure la loro idea era di uscire da subito con 1070 e 1080, dirette eredi di 970/980...allora a quel punto è AMD ad aver fatto i conti senza l'oste.. ;)
Sicuramente gli saranno uscite tante x60ti. Le x60ti, altro non sono che chip malriusciti con parti di cache fallata. Di conseguenza devono levare una o due partizioni con una serie a catena di decurtazioni.
Nvidia questo lo prevedeva già, ed è sempre successo così.
La 970-660ti-la 465, tutti chip con cache fallata.
La 7870xt è la stessa cosa.
Questo solo in fascia desktop.
Con GP106 si scende notevolmente di core.
Goofy Goober
02-05-2016, 10:42
my gad la 465...
cosa mi hai ricordato :asd:
consumava di più e scaldava di più di 470 e 480 (e consumare/scaldare più della 480 era un record) anche se andava meno, forse la scheda più inutile mai vista ai tempi di fermi e non solo.
YesManYes
02-05-2016, 10:47
Sicuramente gli saranno uscite tante x60ti. Le x60ti, altro non sono che chip malriusciti con parti di cache fallata. Di conseguenza devono levare una o due partizioni con una serie a catena di decurtazioni.
Nvidia questo lo prevedeva già, ed è sempre successo così.
La 970-660ti-la 465, tutti chip con cache fallata.
La 7870xt è la stessa cosa.
Questo solo in fascia desktop.
Con GP106 si scende notevolmente di core.
ma è da quel di...
anche la 8800GTS 640 è un G80 fallato... o le G92 8800GT e GS, oppure le GT200 come GTX 260 192 e 216 e GTX 275... per arrivare a Fermi... come 465 , 470 e 480.. ecc
YesManYes
02-05-2016, 10:50
my gad la 465...
cosa mi hai ricordato :asd:
consumava di più e scaldava di più di 470 e 480 (e consumare/scaldare più della 480 era un record) anche se andava meno, forse la scheda più inutile mai vista ai tempi di fermi e non solo.
ricordo che c'era un modello che si sbloccava a GTX 470... mi pare era della MSI... :asd:
mikael84
02-05-2016, 10:54
my gad la 465...
cosa mi hai ricordato :asd:
consumava di più e scaldava di più di 470 e 480 (e consumare/scaldare più della 480 era un record) anche se andava meno, forse la scheda più inutile mai vista ai tempi di fermi e non solo.
Quella scheda era assurda. Senza considerare che veniva scambiata per la serie della 460 con un chip 1,volte più piccolo.
Anche AMD con una scheda a cache fallata, scarto di produzione non ha fatto meglio. Ricordo la 7870xt (solo custom in questo caso la joker), un fornellino ed era molto decurtata.:D
https://tpucdn.com/reviews/Club_3D/HD_7870_jokerCard_Tahiti_LE/images/power_average.gif
ma è da quel di...
anche la 8800GTS 640 è un G80 fallato... o le G92 8800GT e GS, oppure le GT200 come GTX 260 192 e 216 e GTX 275... per arrivare a Fermi... come 465 , 470 e 480.. ecc
Esatto, io ho ripreso le più nuove ma è sempre successo così.
YesManYes
02-05-2016, 10:56
Quella scheda era assurda. Senza considerare che veniva scambiata per la serie della 460 con un chip 1,volte più piccolo.
Anche AMD con una scheda a cache fallata, scarto di produzione non ha fatto meglio. Ricordo la 7870xt (solo custom in questo caso la joker), un fornellino ed era molto decurtata.:D
https://tpucdn.com/reviews/Club_3D/HD_7870_jokerCard_Tahiti_LE/images/power_average.gif
Esatto, io ho ripreso le più nuove ma è sempre successo così.
mikael ma quando ieri hai scritto
-GV104 sarà il chip decurtato di volta full con il prossimo step.-
intendevi sarà una versione castrata del chippone?
oppure come succede ora una gpu più piccola , versione ridotta del chippone?
mikael84
02-05-2016, 11:13
mikael ma quando ieri hai scritto
-GV104 sarà il chip decurtato di volta full con il prossimo step.-
intendevi sarà una versione castrata del chippone?
oppure come succede ora una gpu più piccola , versione ridotta del chippone?
Ho visto solo ora il tuo post. Cmq chiaramente GV104 sarà la versione ridotta a 4 GPC del GV100 full. Intendevo quello chiaramente.
In linea di massima dovremmo avere:
GP104-100
GV104-100
Un maxwell 2,0 lo escudo, l'avremmo avuto in roadmap, però un buon affinamento non è da sottovalutare, in stile GF110 o 4890. Dove i chip furono rivisti, scartando connessioni lente e implementando transistor con meno dispersione.
La 580 è stata un'ottimo affinamento.
Dopo si va di Volta con il GV104.
fraussantin
02-05-2016, 11:15
Edit
Ho visto solo ora il tuo post. Cmq chiaramente GV104 sarà la versione ridotta a 4 GPC del GV100 full. Intendevo quello chiaramente.
In linea di massima dovremmo avere:
GP104-100
GV104-100
Un maxwell 2,0 lo escudo, l'avremmo avuto in roadmap, però un buon affinamento non è da sottovalutare, in stile GF110 o 4890. Dove i chip furono rivisti, scartando connessioni lente e implementando transistor con meno dispersione.
La 580 è stata un'ottimo affinamento.
Dopo si va di Volta con il GV104.
mai quanto la 980ti :O
mikael84
02-05-2016, 11:42
mai quanto la 980ti :O
La 980ti è però un'architettura completamente diversa, la 580 migliorava fermi:p
In linea di massima è come se avessero ripreso Kepler gk100 e l'avessero migliorata tanto elettricamente in modo da poter abilitare completamente il 6° GPC mancante che le avrebbe garantito sino a 3456cc e 48 rops.
Chiaramente Kepler è stato totalmente rivisto in una nuova architettura, Maxwell.:)
La 980ti è però un'architettura completamente diversa, la 580 migliorava fermi:p
In linea di massimo è come se avessero ripreso Kepler gk100 e l'avessero migliorata tanto elettricamente in modo da poter abilitare completamente il 6° GPC mancante che le avrebbe garantito sino a 3456cc e 48 rops.
Chiaramente Kepler è stato totalmente rivisto in una nuova architettura, Maxwell.:)
basta ho deciso 980ti forever young o forse dovrei dire green :D
pensando ai 28nm è la massima espressione/ottimizzazione di un pp piu che affinato con le varie architetture nel tempo ;)
YesManYes
02-05-2016, 13:11
il lavoro fatto sulla 580 è robetta in confronto a quello che è stato fatto per una 980ti...
x la 580 ci sono stati dei leggeri miglioramenti ma alla fine il chip è sempre quello... con 32sp abilitati (da 480 a 512) 70mhz + di core consumi leggermente più bassi ed un dissipatore migliore... con quelle modifiche andava un 10% + di una 480
invece la 980ti si mangia la precedente 780ti
illidan2000
02-05-2016, 13:20
http://www.hwupgrade.it/news/skvideo/piu-schede-geforce-gtx-attese-al-debutto-da-nvidia-per-il-mese-di-maggio_62418.html
qui danno certa la 1070 con gddr5
Le indiscrezioni, non confermate ufficialmente,
YesManYes
02-05-2016, 13:23
Ho visto solo ora il tuo post. Cmq chiaramente GV104 sarà la versione ridotta a 4 GPC del GV100 full. Intendevo quello chiaramente.
In linea di massima dovremmo avere:
GP104-100
GV104-100
Un maxwell 2,0 lo escudo, l'avremmo avuto in roadmap, però un buon affinamento non è da sottovalutare, in stile GF110 o 4890. Dove i chip furono rivisti, scartando connessioni lente e implementando transistor con meno dispersione.
La 580 è stata un'ottimo affinamento.
Dopo si va di Volta con il GV104.
allora allungheranno il brodo con un GP100b.... con tutti gli shader abilitati e frequenze più alte....(e magari la X70 potrebbe diventare la gpu della 1080)
mentre per la serie 1000 ci sarà il GP100 castrato di qualche sm come top del top
mikael84
02-05-2016, 14:01
allora allungheranno il brodo con un GP100b.... con tutti gli shader abilitati e frequenze più alte....(e magari la X70 potrebbe diventare la gpu della 1080)
mentre per la serie 1000 ci sarà il GP100 castrato di qualche sm come top del top
Si può fare. Ad oggi userai 3584cc su 3820 con un clock base.
Con una x80ti sicuramente ti levano almeno 2 TPC (se non 3) e ti lasciano 3200-3328cc.
Se ci pensi a 3200cc praticamente ti ritrovi ad usare un chip con praticamente un GPC in meno rispetto al progetto finale.
Quindi un'affinamento ci sta, come ci sta anche rivedere le altre fasce.
In caso Volta tardasse le soluzioni ci sono secondo me per tappare i bucchi.
Kingdemon
02-05-2016, 16:37
http://www.hwupgrade.it/news/skvideo/piu-schede-geforce-gtx-attese-al-debutto-da-nvidia-per-il-mese-di-maggio_62418.html
qui danno certa la 1070 con gddr5
Le indiscrezioni, non confermate ufficialmente,
Appena letta anche io.. niente di nuovo
Psycho77
02-05-2016, 17:02
Fatevi due risate.:asd:
http://multiplayer.it/notizie/167576-spuntano-i-primi-suggestivi-rumor-su-xbox-next.html
Crysis90
02-05-2016, 17:18
Fatevi due risate.:asd:
http://multiplayer.it/notizie/167576-spuntano-i-primi-suggestivi-rumor-su-xbox-next.html
Mi sembra proprio una GRAN ca****a.
HBM e Vega? Ma per favore...e a quanto la vendono? 1.500 euro? :mbe: :rolleyes:
Psycho77
02-05-2016, 17:20
Mi sembra proprio una GRAN ca****a.
HBM e Vega? Ma per favore...e a quanto la vendono? 1.500 euro? :mbe: :rolleyes:
10 TFLOPS con magari pure un bel i7 5960x a 400 euro mica è male no?
Manco Pascal arriverà a tali meraviglie.:asd:
Fatevi due risate.:asd:
http://multiplayer.it/notizie/167576-spuntano-i-primi-suggestivi-rumor-su-xbox-next.html
Ridere in che senso? Se intendi per chi ha investito in console morte in partenza (sia X1 che ps4) rido pure io:asd: , se invece credi sia un rumor poco realistico ti ricordo che xbox 360 era uscito a novembre 2005 metre ps3 un anno dopo.
E un anno prima (novembre 2004) le gpu top di gamma erano la 6800 ultra e la x800 xt, con potenza bruta equiparabile alle gpu usate nelle consolle ma più primitive.
Con le potenze in gioco di cui si parla nell'articole (10tflops) probabilmente avranno intenzione di implementare una gpu basata su Vega: con tale potenza potranno garantire effettivamente i 4k, anche a 60hz con le dovute ottimizzazioni. ;)
E a quel punto però saremmo noi a piangere, perchè le schede attuali e di prossima uscita non saranno longeve come lo sono state fino ad ora, grazie ai soliti porting scadenti, basati però su una gpu di tale potenza come metro minimo di paragone...:(
Ridere in che senso? Se intendi per chi ha investito in console morte in partenza (sia X1 che ps4) rido pure io:asd: , se invece credi sia un rumor poco realistico ti ricordo che xbox 360 era uscito a novembre 2005 metre ps3 un anno dopo.
E un anno prima (novembre 2004) le gpu top di gamma erano la 6800 ultra e la x800 xt, con potenza bruta equiparabile alle gpu usate nelle consolle ma più primitive.
Con le potenze in gioco di cui si parla nell'articole (10tflops) probabilmente avranno intenzione di implementare una gpu basata su Vega: con tale potenza potranno garantire effettivamente i 4k, anche a 60hz con le dovute ottimizzazioni. ;)
E a quel punto però saremmo noi a piangere, perchè le schede attuali e di prossima uscita non saranno longeve come lo sono state fino ad ora, grazie ai soliti porting scadenti, basati però su una gpu di tale potenza come metro minimo di paragone...:(
sono proprio i 10 Teraflops una della tante altre cose che fanno ridere
mikael84
02-05-2016, 17:43
sono proprio i 10 Teraflops una della tante altre cose che fanno ridere
Teoricamente una Vega 4096st a 1200mhz.
10 TFLOPS con magari pure un bel i7 5960x a 400 euro mica è male no?
Manco Pascal arriverà a tali meraviglie.:asd:
Guarda che Tesla P100 con il chip castrato arriva a 5,3 GFLOPs in fp64, che diventano 10,6 in FP32 e 21,2 in FP16.
sono proprio i 10 Teraflops una della tante altre cose che fanno ridere
Perchè? Parlando di potenza FP32 teorica la Titan x e le 980ti custom ne sviluppano circa 6,1 mentre la fury x 8,6.
Forse non saranno equivalenti a quelli Nvidia ma con Fiji ci sono ad un passo ai 10, non sarà difficile superarli con i 14nm, un architettura più efficente e pure sfruttando die fallati. ;)
Come detto sopra, nvidia ci è già arrivata con GP100, pur implementanto le unità a doppia precisione.
Goofy Goober
02-05-2016, 17:51
madonna quanti cazzari che scrivono su internet oggigiorno.
e ovviamente se è scritto sull'internet è tutto vero.
fa paura vedere che pure siti "ufficiali" riprendano certe supercazzole e le sparino in prima pagina.
che vergogna...
DIECI teraflops.
ma andate a rubare :asd:
Kekko1978
02-05-2016, 18:00
I 10 TFlos sono stati stimati per difetto.... :doh:
Guarda che Tesla P100 con il chip castrato arriva a 5,3 GFLOPs in fp64, che diventano 10,6 in FP32 e 21,2 in FP16.
Perchè? Parlando di potenza FP32 teorica la Titan x e le 980ti custom ne sviluppano circa 6,1 mentre la fury x 8,9.
Forse non saranno equivalenti a quelli Nvidia ma con Fiji ci sono ad un passo ai 10, non sarà difficile superarli con i 14nm e un architettura più efficente. ;)
Come detto sopra, nvidia ci è già arrivata con GP100, pur implementanto le unità a doppia precisione.
bene proprio lì volevo arrivare, parliamo di gp100 che ne sviluppa 10.2Tflop più o meno (vado a memoria) in fp32 e stiamo parlando di un chippone enorme/costoso/energivoro (e caloroso) per uno standard console e che nella variante desktop costerà nella più rosea delle situazioni 1000€ solo di gpu, quanto dovrebbero costare le relative console in grado di sviluppare questi miracolosi 10Tf?
Come sempre le console per mantenere un costo medio/basso (4-500€) adotteranno schede video di fascia bassa o medio/bassa, con il nuovo pp un buon incremento anche per quella fascia potrebbe esserci, alzando in maniera tangibile lo scalino di prestazioni raggiungibili, ma è già tanto se si avvicineranno ad un ipotetico 3Tf dagli 1.5-1.8 che sviluppano adesso xbox one e ps4 (valori indicativi7simbolici giusto per dare una proporzione approssimativa)
mikael84
02-05-2016, 18:01
madonna quanti cazzari che scrivono su internet oggigiorno.
e ovviamente se è scritto sull'internet è tutto vero.
fa paura vedere che pure siti "ufficiali" riprendano certe supercazzole e le sparino in prima pagina.
che vergogna...
DIECI teraflops.
ma andate a rubare :asd:
Per fortuna non sono i 10TF di Pascal, altrimenti servirebbe il chippone full abilitato. :sofico:
Psycho77
02-05-2016, 18:57
madonna quanti cazzari che scrivono su internet oggigiorno.
e ovviamente se è scritto sull'internet è tutto vero.
fa paura vedere che pure siti "ufficiali" riprendano certe supercazzole e le sparino in prima pagina.
che vergogna...
DIECI teraflops.
ma andate a rubare :asd:
E non pensavo minimamente che qui dentro qualcuno ci cascasse,eppure è successo.:asd:
Senza offesa ma devo scrivertelo:sei proprio er mejo.:asd:
bene proprio lì volevo arrivare, parliamo di gp100 che ne sviluppa 10.2Tflop più o meno (vado a memoria) in fp32 e stiamo parlando di un chippone enorme/costoso/energivoro (e caloroso) per uno standard console e che nella variante desktop costerà nella più rosea delle situazioni 1000€ solo di gpu, quanto dovrebbero costare le relative console in grado di sviluppare questi miracolosi 10Tf?
Come sempre le console per mantenere un costo medio/basso (4-500€) adotteranno schede video di fascia bassa o medio/bassa, con il nuovo pp un buon incremento anche per quella fascia potrebbe esserci, alzando in maniera tangibile lo scalino di prestazioni raggiungibili, ma è già tanto se si avvicineranno ad un ipotetico 3Tf dagli 1.5-1.8 che sviluppano adesso xbox one e ps4 (valori indicativi7simbolici giusto per dare una proporzione approssimativa)
Amd calcola i Tflops teorici in maniera diversa da Nvidia: una fury x ne ha circa il 50% in più di una titan X, e sono già 8,6.
Fosse anche un mero die shrink di Fuji a 14nm, con un po di frequenza in più ci si arriva a 10tflops.
Se ricordo bene i 16nm (e credo anche i 14nm) dovrebbero dimezzare le dimensioni del die a parità di complessità, quindi un Fuji da 600mmq divenderebbe 300mmq.
E la ps3 al lancio aveva un RSX a 90nm da 258mmq (la 7900gtx era di 196mmq e la piazzavano a 500$ :asd: ) e costava 600€, non millemila euro. ;)
E comunque imho una gpu del genere è il minimo sindacabile per gestire il 4k e il VR per gli anni a venire.
Goofy Goober
02-05-2016, 19:57
E non pensavo minimamente che qui dentro qualcuno ci cascasse,eppure è successo.:asd:
Senza offesa ma devo scrivertelo:sei proprio er mejo.:asd:
prego? :fagiano:
illidan2000
02-05-2016, 20:01
sono 10 teraflops "informatici", tipo i VAi degli UPS!
cmq, più potenti sono le console, meglio è, decisamente. Magari fosse veramente così... venderei il pc :D
supporterà i 21:9?????? eheh
Goofy Goober
02-05-2016, 20:05
e che c'entra, il mio commento era riferito alla sparata di xray e a multifakeplayer che subito riporta la notiziona, mi pareva cristallino
se poi vogliamo dirci che 10 teraflops su una console "revisione" di una One sono realistici (a prescindere da "come" vogliamo conteggiarli), allora tantovale aprirci un blog per chi la spara più grossa :O
si sta parlando di una console con un chip grafico che sta nella fascia di che prezzo? cioè, seri? :fagiano:
Psycho77
02-05-2016, 20:07
prego? :fagiano:
L'articolo è talmente fake che qualcuno qui c'è cascato comunque.
El mejo per precisare.:)
Goofy Goober
02-05-2016, 20:12
L'articolo è talmente fake che qualcuno qui c'è cascato comunque.
El mejo per precisare.:)
ah ok.
dato che mi hai quotato e parlavi come rivolto a me mi era venuto il dubbio.
e che c'entra, il mio commento era riferito alla sparata di xray e a multifakeplayer che subito riporta la notiziona, mi pareva cristallino
se poi vogliamo dirci che 10 teraflops su una console "revisione" di una One sono realistici (a prescindere da "come" vogliamo conteggiarli), allora tantovale aprirci un blog per chi la spara più grossa :O
si sta parlando di una console con un chip grafico che sta nella fascia di che prezzo? cioè, seri? :fagiano:
bho a quanto pare c'è chi continua dire che sia fattibile su console leggendo sopra ...tanto vale che pubblicono pure questa di Raven nell'altro thread, così ci sarà qualcuno che sosterrà che è possibile anche questo in qualche maniera
Trovato in rete questo affidabile benchmark delle nuove Radeon... Ancora da chiarire se si tratta di Polaris 10 o 11... :O
http://i.imgur.com/gWg7MU0.gif
Inviato dal mio SM-N910F utilizzando Tapatalk
:rotfl: :rotfl: :rotfl:
Psycho77
02-05-2016, 20:19
bho a quanto pare c'è chi continua dire che sia fattibile su console leggendo sopra ...tanto vale che pubblicono pure questa di Raven nell'altro thread, così ci sarà qualcuno che sosterrà che è possibile anche questo in qualche maniera
:rotfl: :rotfl: :rotfl:
:rotfl:
Mancano solo indizi sugli illuminati.:asd:
Goofy Goober
02-05-2016, 20:24
secondo me quella slide è attendibile.
dopotutto è sull'internet no?
fireradeon
02-05-2016, 20:31
Per fortuna il 6 é vicino e finalmente si saprá qualcosa. Appena ho letto della presentazione di Battlefield 5 lo stesso giorno ho capito che non é una coincidenza. In sostanza ti presentano la nuova vga e la sera fanno vedere il nuovo mattone grafico e cosí le scimmie sbottano, la mia ormai ha il passkey del mio conto corrente e io non ho piú potere decisionale. :asd:
Psycho77
02-05-2016, 20:44
Per fortuna il 6 é vicino e finalmente si saprá qualcosa. Appena ho letto della presentazione di Battlefield 5 lo stesso giorno ho capito che non é una coincidenza. In sostanza ti presentano la nuova vga e la sera fanno vedere il nuovo mattone grafico e cosí le scimmie sbottano, la mia ormai ha il passkey del mio conto corrente e io non ho piú potere decisionale. :asd:
Si beh,ma dubito che una 980 o 980 ti non riesca a far girare il nuovo battlefield 5.
La storia della scimmia e tutt'altra cosa lo sappiamo.:asd:
Crysis90
02-05-2016, 20:45
http://wccftech.com/nvidia-introduce-gtx-1080-gtx-1070-battlefield-5/
Chi l'avrebbe mai detto!?!?!?! :sofico: :sofico:
http://multiplayer.it/notizie/167587-battlefield-5-il-nuovo-battlefield-sara-sconvolgente.html
Da qui a Venerdì sera saranno i 4 giorni più lunghi della mia vita! :D :asd: :sofico:
Psycho77
02-05-2016, 20:54
http://wccftech.com/nvidia-introduce-gtx-1080-gtx-1070-battlefield-5/
Chi l'avrebbe mai detto!?!?!?! :sofico: :sofico:
http://multiplayer.it/notizie/167587-battlefield-5-il-nuovo-battlefield-sara-sconvolgente.html
Da qui a Venerdì sera saranno i 4 giorni più lunghi della mia vita! :D :asd: :sofico:
Azz bella mossa di nvidia.
Mi gioco una palla che battlefield 5 a 4k girerà a 12 frame di media(maxato) su una 1080,altro che stunning 4k..........:fagiano:
Crysis90
02-05-2016, 21:02
Azz bella mossa di nvidia.
Mi gioco una palla che battlefield 5 a 4k girerà a 12 frame di media(maxato) su una 1080,altro che stunning 4k..........:fagiano:
Ma no, basta vedere SW Battlefront.
Non è pesantissimo, eppure l'engine permette un rendering di altissimo livello. Installando la Real Life MOD, sembra di giocare in CG.
Il Frostbite non è mai stato un mattone così pesante.
Secondo me ci sarà da vederne delle belle. ;) ;)
Quel che è CERTO, è che se la mia 980 Ti non basterà per giocarci a 4K appena uscirà GP100 me la prenderò all'istante. :D
Psycho77
02-05-2016, 21:06
Ma no, basta vedere SW Battlefront.
Non è pesantissimo, eppure l'engine permette un rendering di altissimo livello. Installando la Real Life MOD, sembra di giocare in CG.
Il Frostbite non è mai stato un mattone così pesante.
Secondo me ci sarà da vederne delle belle. ;) ;)
Si presuppone che battlefield 5 abbia un'effettistica più evoluta ed un engine migliorato rispetto a battlenoobs e sicuramente questo porterà ad avere un gioco ben più pesante del precedente.
Non ci scordiamo che battlefront ha diminuito i giocatori da 64 a 48 e che ha praticamente eliminato la distruttibilità dei fondali per girare a 60 frame su console.........
Se dice decide di lavorare bene su pc sfruttando le moderne tecnologie,mi aspetto un bel mattonazzo se sparato a cannone.
Edit:tanto per giocarlo a 4k maxato e almeno 60 frame costanti,ti serviranno minimo 2 1080 ti pascal,vedrai.
Più o meno con 2 1080 ti pascal potrai raggiungere la fantomatica potenza di xbox next con i suoi 18 tflops.:sofico:
Crysis90
02-05-2016, 21:11
Si presuppone che battlefield 5 abbia un'effettistica più evoluta ed un engine migliorato rispetto a battlenoobs e sicuramente questo porterà ad avere un gioco ben più pesante del precedente.
Non ci scordiamo che battlefront ha diminuito i giocatori da 64 a 48 e che ha praticamente eliminato la distruttibilità dei fondali per girare a 60 frame su console.........
Edit:tanto per giocarlo a 4k maxato e almeno 60 frame costanti,ti serviranno minimo 2 1080 ti pascal,vedrai.
Sisi, su questo hai ragione.
Per la GPU necessaria, no dai secondo me una singola GP100 basterà. ;)
Se poi arriverà a 40/50 frames andrà bene lo stesso, non sono un fanatico dei 60 frames obbligatori.
Psycho77
02-05-2016, 21:15
Sisi, su questo hai ragione.
Per la GPU necessaria, no dai secondo me una singola GP100 basterà. ;)
Ma si,basterà pure una 980 ti a 1080p e forse pure a 1440p.
Per il 4k con una non vai da nessuna parte però,a meno di abbassare dettagli a iosa,per avere almeno i 60 frame.;)
In competitiva tanto continuerà a giocarsi a 1366 aa off per limare il problema client side :asd:
bho a quanto pare c'è chi continua dire che sia fattibile su console leggendo sopra ...tanto vale che pubblicono pure questa di Raven nell'altro thread, così ci sarà qualcuno che sosterrà che è possibile anche questo in qualche maniera
:rotfl: :rotfl: :rotfl:
http://i.imgur.com/881foJk.jpg
Argomentare un poco invece di buttarla in caciara no?
Se la Sony ha venduto una ps3 con un chip grafico da 256mmq + una cpu di derivazione server da 235mmq a 600€, non è fattibile che MS possa fare lo stesso con un chip da 300mmq di parte grafica e facciamo altri 100mmq composti da 4 core Zen?
I costi sarebbero comunque inferiori di quelli dell'epoca e i numeri in gioco ben superiori di quelle di gpu dedicate, con conseguente riduzione dei costi.
Non dico che la faranno (anche io ho i miei dubbi), dico che se la Sony ha prodotto (in perdita) la ps3 con quelle caratteristiche non è fattibile che anche Ms possa farlo, ad un prezzo simile?
Costerebbe sempre meno di un pc "VR ready"
sono 10 teraflops "informatici", tipo i VAi degli UPS!
cmq, più potenti sono le console, meglio è, decisamente. Magari fosse veramente così... venderei il pc :D
supporterà i 21:9?????? eheh
Ecco perchè qualcuno quì è nervoso dopo questi rumor :asd:
TigerTank
02-05-2016, 21:47
Mi sembra proprio una GRAN ca****a.
HBM e Vega? Ma per favore...e a quanto la vendono? 1.500 euro? :mbe: :rolleyes:
Questo commento mi ha fatto ridere di gusto:
"con questi continui cambi/upgrade di console conviene comprare un pc!!"
E invece qui capita di leggere cose tipo "se continuano così vendo tutto e mi faccio una console" :sofico:
Se potenziassero le console sarebbe un bene perchè i porting sarebbero nativamente concepiti per un livello hardware più alto e non solo farciti a posteriori per diventare mattoni su pc :D
Psycho77
02-05-2016, 21:51
Questo commento mi ha fatto ridere di gusto:
"con questi continui cambi/upgrade di console conviene comprare un pc!!"
E invece qui capita di leggere cose tipo "se continuano così vendo tutto e mi faccio una console" :sofico:
Se potenziassero le console sarebbe un bene perchè i porting sarebbero nativamente concepiti per un livello hardware più alto e non solo farciti a posteriori per diventare mattoni su pc :D
Esatto.:asd:
Tra cambi di console ogni 2/3 anni,giochi a 70 bombe,online a pagamento sarà necessario cercarsi un terzo lavoro per mantenere ste multinazionali che tendono a scimmiottare malamente il pc gaming.
mikael84
02-05-2016, 22:03
Amd calcola i Tflops teorici in maniera diversa da Nvidia: una fury x ne ha circa il 50% in più di una titan X, e sono già 8,6.
Fosse anche un mero die shrink di Fuji a 14nm, con un po di frequenza in più ci si arriva a 10tflops.
Se ricordo bene i 16nm (e credo anche i 14nm) dovrebbero dimezzare le dimensioni del die a parità di complessità, quindi un Fuji da 600mmq divenderebbe 300mmq.
E la ps3 al lancio aveva un RSX a 90nm da 258mmq (la 7900gtx era di 196mmq e la piazzavano a 500$ :asd: ) e costava 600€, non millemila euro. ;)
E comunque imho una gpu del genere è il minimo sindacabile per gestire il 4k e il VR per gli anni a venire.
AMD calcola la virgola mobile come Nvidia, solo che essendo architetturalmente diverse, il rapporto tra cc/st-clock/fma2 è diverso ma è un valore teorico
http://i.imgur.com/881foJk.jpg
Argomentare un poco invece di buttarla in caciara no?
Se la Sony ha venduto una ps3 con un chip grafico da 256mmq + una cpu di derivazione server da 235mmq a 600€, non è fattibile che MS possa fare lo stesso con un chip da 300mmq di parte grafica e facciamo altri 100mmq composti da 4 core Zen?
I costi sarebbero comunque inferiori di quelli dell'epoca e i numeri in gioco ben superiori di quelle di gpu dedicate, con conseguente riduzione dei costi.
Non dico che la faranno (anche io ho i miei dubbi), dico che se la Sony ha prodotto (in perdita) la ps3 con quelle caratteristiche non è fattibile che anche Ms possa farlo, ad un prezzo simile?
Costerebbe sempre meno di un pc "VR ready"
Ecco perchè qualcuno quì è nervoso dopo questi rumor :asd:
hai presente quando un leak ti sembra una bufala campata talmente tanto in aria da non volerci spendere neanche un momento di tempo a pensarci, se non per far due risate, perchè sei convinto che sia tempo sprecato? Ecco questo è l'effetto che mi hanno fatto quei presunti "leak"...se poi a te sembrano cose attendibili/realizzabili va bene hai ragione, aspettiamo di vedere tutti impazienti (almeno la fanno finita di fare da freno a mano anche al mondo pc) queste console da 10tf per far girare i giochi in 4k 60hz :fagiano:
fireradeon
02-05-2016, 22:45
Si beh,ma dubito che una 980 o 980 ti non riesca a far girare il nuovo battlefield 5.
La storia della scimmia e tutt'altra cosa lo sappiamo.:asd:
Guarda che BF4 è vecchio di 3 anni e in multy con singola vga vai oltre i 100 sulle mappe medie, su quelle grandi stai sotto spesso. Quindi fai conto che BF5 sarà un mattone in confronto e tutta questa presentazione in coppia con nvidia è fatta apposta per farti dire: "cacchio, senza la 1080 non mi girerà bene BF5" e giù a cambiare VGA. Io la cambio per cacchi miei, l'ho già detto più volte (oggi ho montato il PG348Q 21:9 e mi serve more POWER!), anzi mi faccio un bello sli se tutto va come previsto, però per molti può essere uno stimolo aggiuntivo a cambiare VGA.
ormai esce un gioco per ogni release delle schede video..
a parte qualche porting fatto coi piedi e indie di titoli aaa se ne vedono sempre meno.
cmq bf5 spero non prenda l'andazzo di star wars no xche i soldi li ho buttati completamente per quel gioco..
Crysis90
02-05-2016, 22:54
Se potenziassero le console sarebbe un bene perchè i porting sarebbero nativamente concepiti per un livello hardware più alto e non solo farciti a posteriori per diventare mattoni su pc :D
Se ben ricordi, scrissi la stessa identica cosa qualche pagina fa commentando uno dei primi rumors sulla PS4K. ;)
Crysis90
02-05-2016, 22:56
a parte qualche porting fatto coi piedi e indie di titoli aaa se ne vedono sempre meno.
Questo perchè di SH coi coglioni ed i contro-coglioni rimaste indipendenti ce ne sono sempre meno.
Ci sono rimaste solo Rockstar, CD Project e Blizzard. Tutto il resto è in mano ai grandi Publishers.
Psycho77
03-05-2016, 01:10
Guarda che BF4 è vecchio di 3 anni e in multy con singola vga vai oltre i 100 sulle mappe medie, su quelle grandi stai sotto spesso. Quindi fai conto che BF5 sarà un mattone in confronto e tutta questa presentazione in coppia con nvidia è fatta apposta per farti dire: "cacchio, senza la 1080 non mi girerà bene BF5" e giù a cambiare VGA. Io la cambio per cacchi miei, l'ho già detto più volte (oggi ho montato il PG348Q 21:9 e mi serve more POWER!), anzi mi faccio un bello sli se tutto va come previsto, però per molti può essere uno stimolo aggiuntivo a cambiare VGA.
Ci vuole poco a far fuori la serie vecchia,basta scrivere i driver in modo che servano tipo 9 gb di vram per le texture ad ultra e via.:asd:
Una 980 ti già stenta con black ops 3 maxato a 1080p(devo toccare dei file ini altrimenti con 6 gb ho uno stuttering della madonn),per non parlare di rise of the tomb rider nelle macro aree e quello schifio di gears UE,che oltre ad avere texture oscene,si pappa fino a 10 gb di vram con le texture finte a 4k.:asd:
Tra la castrazione dei driver e le richieste spropositate di vram stai sicuro che tra poco senza 12gb non si andrà da nessuna parte,soprattutto chi gioca a res elevate tipo 4k o 1440p.:fagiano:
Arrow0309
03-05-2016, 06:36
http://videocardz.com/59517/nvidia-teases-geforce-1000-series-with-order-of-10-campaign
:p :asd: :p
fireradeon
03-05-2016, 07:51
http://videocardz.com/59517/nvidia-teases-geforce-1000-series-with-order-of-10-campaign
:p :asd: :p
Sono malati questi! :D
fireradeon
03-05-2016, 07:52
Ci vuole poco a far fuori la serie vecchia,basta scrivere i driver in modo che servano tipo 9 gb di vram per le texture ad ultra e via.:asd:
Una 980 ti già stenta con black ops 3 maxato a 1080p(devo toccare dei file ini altrimenti con 6 gb ho uno stuttering della madonn),per non parlare di rise of the tomb rider nelle macro aree e quello schifio di gears UE,che oltre ad avere texture oscene,si pappa fino a 10 gb di vram con le texture finte a 4k.:asd:
Tra la castrazione dei driver e le richieste spropositate di vram stai sicuro che tra poco senza 12gb non si andrà da nessuna parte,soprattutto chi gioca a res elevate tipo 4k o 1440p.:fagiano:
A me Raise of Tomb Raider gira bene, tutto maxato e con ombre VXAO. Devo occare la VGA, ma sto sempre sopra i 45fps (il gioco cmq è molto molto bello graficamente, diciamolo!)
fraussantin
03-05-2016, 07:55
Ci vuole poco a far fuori la serie vecchia,basta scrivere i driver in modo che servano tipo 9 gb di vram per le texture ad ultra e via.:asd:
Una 980 ti già stenta con black ops 3 maxato a 1080p(devo toccare dei file ini altrimenti con 6 gb ho uno stuttering della madonn),per non parlare di rise of the tomb rider nelle macro aree e quello schifio di gears UE,che oltre ad avere texture oscene,si pappa fino a 10 gb di vram con le texture finte a 4k.:asd:
Tra la castrazione dei driver e le richieste spropositate di vram stai sicuro che tra poco senza 12gb non si andrà da nessuna parte,soprattutto chi gioca a res elevate tipo 4k o 1440p.:fagiano:
Ma se le vga nuove ne avranno 8?
Crysis90
03-05-2016, 08:06
Sono malati questi! :D
http://wccftech.com/nvidia-geforce-gtx-1080-1070-pascal-teaser/
:asd: :asd:
Pure gli enigmi, adesso. :asd:
fireradeon
03-05-2016, 08:22
http://wccftech.com/nvidia-geforce-gtx-1080-1070-pascal-teaser/
:asd: :asd:
Pure gli enigmi, adesso. :asd:
Sono matti, ripeto, però bisogna ammettere che sono anche furbi.
Arrow0309
03-05-2016, 09:24
Sono matti, ripeto, però bisogna ammettere che sono anche furbi.
Yeah, più furbi che matti. :Perfido:
illidan2000
03-05-2016, 09:50
Ma se le vga nuove ne avranno 8?
ti invitano a comprare le titan da 16gb
A me Raise of Tomb Raider gira bene, tutto maxato e con ombre VXAO. Devo occare la VGA, ma sto sempre sopra i 45fps (il gioco cmq è molto molto bello graficamente, diciamolo!)
quotone,
ricordo che se ci sono problemi potrebbe anche centrare quella scatola talvolta polverosa chiamata computer personal :stordita:
Ho appena venduto ad un amico la mia GTX 970 dopo 1 anno e mezzo di onorato servizio a 200 euro , speriamo bene per il 6 Maggio :stordita: .
iscritto anch'io...vendute lo sli di 980 (700 euri) in attesa di 2 1080 possibilmente simil g1 gaming :oink: ...sto con la hd4600 minchia che schifo :cry:
iscritto anch'io...vendute lo sli di 980 (700 euri) in attesa di 2 1080 possibilmente simil g1 gaming :oink: ...sto con la hd4600 minchia che schifo :cry:
Hhuauhaha anche io con l'integrata del i5 3570k via HDMI non so nemmeno come si chiama :asd: .
Legolas84
03-05-2016, 11:22
Io se riesco a vendere ho pronta una ATi X300 :asd:
Altrimenti va bene così ;)
Legolas84
03-05-2016, 11:29
Diciamo che io mi sono messo solo dopo aver avuto info dall'interno... ;)
Poi ovviamente non vi è nulla di ufficiale.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.