Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Ecovacs Goat O1200 LiDAR Pro: la prova del robot tagliaerba con tagliabordi integrato
Ecovacs Goat O1200 LiDAR Pro: la prova del robot tagliaerba con tagliabordi integrato
Nuova frontiera per i robot tagliaerba, con Ecovacs GOAT O1200 LiDAR Pro che riconosce l'ambiente in maniera perfetta, grazie a due sensori LiDAR, e dopo la falciatura può anche rifinire il bordo con il tagliabordi a filo integrato
Recensione Samsung Galaxy S26+: sfida l'Ultra, ma ha senso di esistere?
Recensione Samsung Galaxy S26+: sfida l'Ultra, ma ha senso di esistere?
Equilibrio e potenza definiscono il Samsung Galaxy S26+, un flagship che sfida la variante Ultra e la fascia alta del mercato con il primo processore mobile a 2nm. Pur mantenendo l'hardware fotografico precedente, lo smartphone brilla per un display QHD+ da 6,7 pollici d'eccellenza, privo però del trattamento antiriflesso dell'Ultra, e per prestazioni molto elevate. Completano il quadro la ricarica wireless a 20W e, soprattutto, un supporto software settennale
Zeekr X e 7X provate: prezzi, autonomia fino a 615 km e ricarica in 13 minuti
Zeekr X e 7X provate: prezzi, autonomia fino a 615 km e ricarica in 13 minuti
Zeekr sbarca ufficialmente in Italia con tre modelli elettrici premium, X, 7X e 001, distribuiti da Jameel Motors su una rete di 52 punti vendita già attivi. La Zeekr X parte da 39.900 euro, la 7X da 54.100: piattaforma a 800V, chip Snapdragon di ultima generazione, ricarica ultraveloce e un'autonomia dichiarata fino a 615 km WLTP. Le prime consegne sono previste a metà aprile
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 26-10-2013, 16:01   #281
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da appleroof Guarda i messaggi
si poi pare che con Volta voglia integrare una cpu ARM...oppure già con Maxwell e project Denver adesso non ricordo...
l'unico inconveniente delle architetture ARM è che hanno una logica in order e quindi non sono il massimo della flessibilità
In riferimento a mantle e alla eventuale risposta di nVidia (e non solo) aggiungo che l'ottimizzazione dell'utilizzo della memoria, soprattutto nei primi tempi, richiederà un livello di conoscenza del chip, per chi programma, molto più a basso livello di quanto non richieda il bilanciamento dinamico dei carichi di lavoro tra unità dello shader core. A buon intenditore...

Ultima modifica di yossarian : 26-10-2013 alle 16:12.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 16:09   #282
sundraw83
Senior Member
 
L'Avatar di sundraw83
 
Iscritto dal: Dec 2012
Città: Avellino
Messaggi: 1049
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
Già ordinate 2, in attesa di provarle e valutare se prenderne ancora 2 per sostituire le 780!

Certo che il rosik di qualcuno qui ha fatto raggiungere picchi di che non si sono mai visti prima.
Fare una domanda non significa rosicare. Scrivere come te, significa provocare. Fai benissimo a comprare quelle schede e fai benissimo a credere che le 780 siano da sostituire.
__________________
Non mi importa se sei nero,bianco,etero,bisex,basso,alto,grasso,magro,ricco o povero.Se sei gentile con me, sarò gentile con te.Semplice.
sundraw83 è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 16:11   #283
DukeIT
Senior Member
 
Iscritto dal: Dec 2001
Messaggi: 8488
Quote:
Originariamente inviato da appleroof Guarda i messaggi
esatto, è un incubo e spero non si arrivi a questo
Mah, io penso che una strada in questo senso l'avesse già aperta Nvidia con il suo PhysX.
__________________
Intel i7-4770; Arctic i30 CO; ASRock Fatal1ty H87; Corsair DDR3 1600 2*8GB; Gigabyte WindForce 780TI; Corsair AX760; Dell U2410; TP-Link Archer D5
DukeIT è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 17:11   #284
Free Gordon
Senior Member
 
L'Avatar di Free Gordon
 
Iscritto dal: Mar 2004
Città: Eporedia
Messaggi: 13454
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
Questo è un chippone da quasi 600mq, così a naso. Lo vedremo nel 2015 se va bene, considerando che TMSC ha grossi problemi (la produzione in volumi per i 20 nm erano previsti per Q4 2013...)
Quoto.



Quote:
Il chip di AMD dovrebbe avere 4096sp, e essere grande quanto Cayman.
Dove lo hai letto?



Quote:
nvidia ha aumentato moltissimo il numero delle ALU passando dall'architettura Fermi a quella Kepler, mentre AMD a parità di transistor ha ridotto il numero delle alu del 30-40%..Diciamo che AMD e nvidia inseguono la stessa strada anche se partono da punti diversi.
A parità di transistor sì, ma perlomeno ora ha più controllo via hw, prima era in gran parte software e nel gpgpu facevano pena...


Quote:
Secondo me è proprio la capacità di masticare con disinvoltura qualsiasi tipo di operazioni fa di GCN la migliore architettura nel GPGPU.
E' curioso che Kepler faccia meglio di GCN solo nei bench dove la vecchia architettura vliw risulta abbastanza competitiva.
Quoto, ma probabile che vedremo davvero all'opera GCN, solo sulle console per il momento..



Quote:
Il vliw avrebbe avuto senso al mio modo sulle schede della serie HD7700, magari mantenendo invariato il livello prestazionale per abbattere i consumi. Fattore prioritario per dei chip destinati anche ai portatili. Imho, è stato abbandonato troppo in fretta, considerando che oggi AMD produce ancora sottoforma di APU gpu con architettura vliw4.
Davvero un mezzo Cayman ad un terzo/quarto del consumo avrebbe giovato nella fascia entry-level-
Vliw, come dice Yoss, è stato abbandonato perché non adatto per Fusion...

Lato gaming avrei preferito una scheda vliw4 al posto di Tahiti, sommato ad un tessellator migliorato e imho ne avremmo viste delle belle perf/watt. ^_^
__________________
AMD Ryzen 1700 - Asrock B450 GAMING-ITX/AC - G-Skill RipjawsV 2X8GB 2660mhz - Sapphire Pulse RX 570 ITX - Crucial MX500 m.2 - Corsair Vengeance 500W - Sharkoon Shark Zone C10 Mini ITX
Free Gordon è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 17:16   #285
Free Gordon
Senior Member
 
L'Avatar di Free Gordon
 
Iscritto dal: Mar 2004
Città: Eporedia
Messaggi: 13454
Quote:
Originariamente inviato da appleroof Guarda i messaggi
sostanzialmente ho paura che Nvidia possa rispondere con proprie API che sfruttino a basso livello le sue gpu, così da avere nel medio periodo una estremizzazione del concetto di ottimizzazione dei giochi in un senso o nell'altro, avrei preferito 100000 volte nuove dx ottimizzate o anche Ogl

la mossa di AMD ha un pò di senso perchè su console c'è GCN... per Nvidia che senso avrebbe invece?
__________________
AMD Ryzen 1700 - Asrock B450 GAMING-ITX/AC - G-Skill RipjawsV 2X8GB 2660mhz - Sapphire Pulse RX 570 ITX - Crucial MX500 m.2 - Corsair Vengeance 500W - Sharkoon Shark Zone C10 Mini ITX
Free Gordon è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 18:18   #286
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da Free Gordon Guarda i messaggi
la mossa di AMD ha un pò di senso perchè su console c'è GCN... per Nvidia che senso avrebbe invece?
Si però questo porta AMD a rimanere forzatamente su quell'architettura.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 19:02   #287
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4389
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Mantle spero che nel lungo termine non diventi quello che tu hai paventato perché, altrimenti, si rischia di tornare alle ottimizzazioni per singolo chip dell'epoca del primo 3d di 3dfx, matrox, powerVR e rendition
Francamente non capisco cosa ci sia di male/sbagliato in Mantle, nelle GLIDE o in qualsiasi altra API, incluso CUDA. L'importante che resti sempre la possibilità di fare l'installazione con le API generiche compatibile con tutti gli HW. Odio l'ottimizzazione al rovescio: vedi
l'impossibilità di usufruire dell'AA, tessellation a mille solo per piantare l'HW, e avere la barra più lunga anche a costo di FPS indecenti....
Il rischio, seppur mitigato dal potere e dallo share di nvidia, è quello di avere titoli indecenti sul piano visivo con le DX. A questa eventualità comunque ci credo poco.
Quote:
Originariamente inviato da yossarian Guarda i messaggi
l'unico inconveniente delle architetture ARM è che hanno una logica in order.
l'architetturra A15 ha una logica OoO three-issue- In questo senso sono più evoluti dei core Jaguar che hanno una logica dual-issue.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
aggiungo che l'ottimizzazione dell'utilizzo della memoria, soprattutto nei primi tempi, richiederà un livello di conoscenza del chip, per chi programma, molto più a basso livello di quanto non richieda il bilanciamento dinamico dei carichi di lavoro tra unità dello shader core. A buon intenditore...
lavoro che dovrebbe essere simile a quello fatto sulle console e con la possibilità di usare gli stessi algoritmi per la programmazione, giusto?
Credo che l'inserimento di GCN nel mercato console sia ottimo ed è forse l'unica soluzione plausibile per avere ottimizzazioni piuttosto spinte a poco prezzo (la stessa AMD afferma che Mantle non sarebbe esistito se le console non adottavano la propria creatura)

Quote:
Originariamente inviato da DukeIT Guarda i messaggi
E invece AMD ha abbandonato la politica del Tick-Tock?
Io mi aspettavo almeno un'architettura nuova con questa serie, dopo quasi due anni di attesa dal lancio della serie HD7*** (si parlava di 1 anno per ciclo, qui siamo già a due anni senza cambiare né pp né architettura, mi sembrano tantini ed ancora dovremo attendere).
Non capisco perchè tutta questa eccitazione per una nuova architettura... Ogni volta che cambiano, se va bene, sono efficienti come quelle precedenti, se va male, vedi GTX580, i miglioramenti a parità di assorbimento sono minimi nonostante il die shrink, che dovrebbe invece garantire da solo un miglioramento del 60%.
Da un pò di tempo per AMD e nvidia non sono le prestazioni nei giochi a determinare lo sviluppo di una architettura.

In realtà con la r9 290x hanno modificato un poco il silicio per farla rendere ancora meglio nel gpgpu.
Ma i cambiamenti sono avvenuti con Bonaire, che difatti porta con sè tutte le "novità" di Hawaii. (un segno che la gpu Hawaii AMD era già pronta)

AMD Tick tock?
2007 si passa dagli shader dedicati ad un'architettura a shader unificati e si cambia PP. (tick e tock)
Nek 2008 abbiamo avuto le HD3000 che è essenzialmente un die-shrink con modificato al MC non più ad anello. (tick con un leggerissimo tock)
Ancora nel 2008 abbiamo le HD 4000 sempre a 55nm e cambiamenti più o meno importanti sull'architettura vliw-5 (lo classifichiamo come un tock?)
nel 2009 esce la HD4770 a 40nm (tick)
nel 2009 escono le HD5000 a 40nm (cosa sono,,,sono solo HD4000 compatibili con le DX11...leggerissimo tock)
nel 2010 esce Cayman a 40nm che segna il passaggio dal vliw5 al vliw4 (tock, ma Cayman doveva debuttare sui 32nm, quindi era probabile un ennesimo tick tock contemporaneo o il debutto di Evergreen a 32nm)
nel 2012 escon le hd7000, 28nm e GCN. (tick e tock)
nel 2013 escono Bonaire e Hawaii, leggere modifiche all'architettura (leggerissimo TOck),
In ambito video, capita molto di rado che si effettui un semplice die shrink senza introdurre migliorie, piccole o grandi che siano, all'architettura.


Nel 2010
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Ti ho linkato ciò per farti capire che magari Nvidia ha radicalmente modificato la sua struttura per apparire così e quindi avere cuda cores intesi come elementi totalmente differenti ?

Quindi per 6000 stream non intesi come gli stessi stream di Kepler ma totalmente differenti perchè nemmeno con 20nm si possono triplicare gli stream di una 780.
Aspetta 6000 cuda-core sono poco più il doppio di 2880...che poi sono quelli contenuti in gk110.
, la sparo li , nvidia potrebbe fare un chip da 360-420mmq per la fascia alta con poca potenza in DP, perchè ormai è chiaro che la resa dei 20 non sarà ottimale fino al Q3 2014. La super mattonella da 600-620mmq potrebbe far capolino nel mercato server e debuttare in quello consumer un anno dopo sottoforma di Titan e poi di GTX.
In pratica marcare a uomo AMD, copiandone in parte la strategia.

Piccola costatazione, di gk110 ad oggi sono stati venduti pochi a dir poco, certamente meno di quanto nvidia ha pianificato 2 anni fa e quindi il discorso fatto sopra potrebbe aver un senso.

Quote:
Originariamente inviato da appleroof Guarda i messaggi
sostanzialmente ho paura che Nvidia possa rispondere con proprie API che sfruttino a basso livello le sue gpu, così da avere nel medio periodo una estremizzazione del concetto di ottimizzazione dei giochi in un senso o nell'altro, avrei preferito 100000 volte nuove dx ottimizzate o anche Ogl
Nvidia potrebbe anche rispondere con le proprie API a basso livello, ma dubito che trovi un solo sviluppatore che ha tempo e voglia di scrivere codice ottimizzato (perchè di questo si tratta) per le proprie gpu, se non investendo una quantità ingente di denaro. L'importante che rimangono disponibile una modalità DX-compatibile DECENTE, cosa che non è sempre avvenuta con le API GLIDE.
Con tutti e 2 i competitors che si fanno battaglia con API proprietarie effettivamente il rischio di avere una modalità DX fatta con i piedi sarebbe altissima.

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Si però questo porta AMD a rimanere forzatamente su quell'architettura.
NI. Certamente il successo di Mantle potrebbe essere un deterrente per AMD che potrebbe non apportare delle modifiche all'hardware, qualora il guadagno prestazionale (più probabile in ambito gpgpu) fosse tale da non giustificare la perdita della compatibiltà con le API Mantle.
Le architetture odierne si stanno evolvendo verso il compute. Ad ogni generazione aumenta la flessibilità, ma allo stesso tempo per fare cose "semplici" come modificare 2 vertici e le texture chiedono sempre più risorse. Mantle potrebbe frenare solo l'evoluzione del HSA (hai detto poco!), che poi è quella che ha più margini di miglioramento e un futuro tutto da definire sia sul piano Hardware che software. I giochi no.
E' chiaro, finchè le console saranno basate su GCN e i giochi multipiattaforma saranno sviluppati a partire dalle caratteristiche della creatura di AMD, l'architettura di AMD sarà strafavorita.
Finchè la base sarà GCN qualsiasi cosa che si discosti dall'architettura di partenza è praticamente certo che vedrà le risorse a disposizione usate alla meno peggio.
Imho, una volta che Mantle prenderà piede, gli sviluppatori continueranno a supportare l'api proprietaria finchè le console basate su quest'architettura non saranno sul viale del tramonto, anche nel caso in cui AMD decida di cambiare architettura. Ovviamente tutto nelle ipotesi che il passaggio dal codice di basso livello scritto per le console a quello per PC, non sia eccessivamente oneroso.

Ultima modifica di tuttodigitale : 27-10-2013 alle 01:18.
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 19:29   #288
tuttodigitale
Senior Member
 
Iscritto dal: Sep 2010
Messaggi: 4389
Quote:
Originariamente inviato da Free Gordon Guarda i messaggi
Dove lo hai letto?
rumors di Maggio riportati su TOM's americano che parlavano di una possibile cancellazione della gpu uscita in questi in giorni a favore di una proposta a 20nm.
da prendere quindi non con le molle, ma di più. Queste sono le fantasiose caratteristiche (tra parentesi il mio pensiero):
4096 SP (probabile)
bus 512 bit (estremamente probabile)
64 ROPs (estremamente probabile)
16 core Arm (fantastico se fosse vero, ma poco probabile)
4 ACE (poco probabile, sarebbe un downgrade rispetto ad Hawaii)
tuttodigitale è offline   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 19:55   #289
Maury
Senior Member
 
L'Avatar di Maury
 
Iscritto dal: Feb 2000
Messaggi: 11273
La prova del nove per Mantle sarà Battle Field 4, teniamo comunque conto che il nuovo Frost Byte, con pieno supporto per Mantle, è alla base di oltre 15 giochi futuri, tra cui molti hit...

A mio avviso adesso AMD tenterà di mettere la zampetta nel Cry Engine e nell'Unreal Engine, anche pagando, come fatto con il Frost.

Non ce lo vedo Mantle fallire, dove non arriva la voglia degli sviluppatori di integrare l'engine arriveranno i soldi di AMD, senza contare che AMD stessa fornsice alle software house un pieno supporto allo sviluppo dello stesso, come detto dai DICE.
__________________
PC 1 : |NZXT 510i|MSI PRO Z690 A|I5 [email protected] Ghz (Pcore) 4.5 Ghz (Ecore)|AIO ENDORFY NAVI F280|32 GB BALLISTIX 3600 cl 14 g1|GIGABYTE 4070 SUPER AERO OC|RM850X|850 EVO 250|860 EVO 1TB|NVMe XPG-1TB||LG OLED C1 - 55 |

PC 2 : |Itek Vertibra Q210|MSI PRO B660M-A|I5 12500|32 GB KINGSTON RENEGADE 3600|ARC A770 LE 16 Gb|MWE 750w|

ARC 770 LE 16 Gb Vs RTX 3070 - CLICCA QUI
Maury è online   Rispondi citando il messaggio o parte di esso
Old 26-10-2013, 23:36   #290
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
Quote:
Originariamente inviato da sundraw83 Guarda i messaggi
Fare una domanda non significa rosicare. Scrivere come te, significa provocare. Fai benissimo a comprare quelle schede e fai benissimo a credere che le 780 siano da sostituire.
Guarda che non mi riferivo a te....

Quote:
Originariamente inviato da DukeIT Guarda i messaggi
Mah, io penso che una strada in questo senso l'avesse già aperta Nvidia con il suo PhysX.
nVidia mica ha inventato il PhysX, ha acquisito l'omonima azienda e poi il PhysX non aggiunge nulla di significativo ad un gioco, Mantle è tutta un'altra cosa.

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Si però questo porta AMD a rimanere forzatamente su quell'architettura.
Bhe se quell'architettura ha margini di sviluppo senza entrare in un vicolo cieco e poi è anche alla base delle nuove console perciò ha un ciclo di 7 anni io non vedo problemi.
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2013, 00:32   #291
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21593
Quote:
Originariamente inviato da Free Gordon Guarda i messaggi
la mossa di AMD ha un pò di senso perchè su console c'è GCN... per Nvidia che senso avrebbe invece?
appunto, mantle deve la sua nascita al fatto che è "forte" della base console netx-gen totalmente AMD, che vedrà sviluppare i giochi su GCN sin dalla loro origine, da li' il senso di tentare una simile e sicuramente "audace" mossa. Ad ogni modo si può fare anche senza, vedasi le glide 3dfx, solo che in questo caso si che mi parrebbe un lavoraccio extra per gli sviluppatori in quanto il fulcro di mantle, almeno a sentire amd (e quindi, l'oste) è che si può sfruttare facilmente gran parte del lavoro che gli sviluppatori hanno già svolto sulla versione console dei game multipiatta perchè giocano in pratica "in casa", cosa che non si potrebbe dire, in caso, su eventuali API nvidia. Inoltre non è che le nuove Api AMD le avrà scritte in due mesi e spicci, credo eh....

Quote:
Originariamente inviato da PaulGuru Guarda i messaggi
Si però questo porta AMD a rimanere forzatamente su quell'architettura.
mmm, magari potrebbe anche "evolverla" senza stravolgerla totalmente da capo a piedi, di fatto poi chi glielo farebbe fare una volta che si è aggiudicata l'intera next gen di console? in fin dei conti intel è dal 2600k che ripropone la stessa cpu riveduta e corretta sino all'attuale 4770

Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
Francamente non capisco cosa ci sia di male/sbagliato in Mantle o nelle GLIDE. L'importante che resti sempre è comunque la possibilità di fare l'installazione con le API generiche.
quoto

ah, ovviamente non solo per "l'installazione", senno è inutile

Quote:
Originariamente inviato da Maury Guarda i messaggi
La prova del nove per Mantle sarà Battle Field 4, teniamo comunque conto che il nuovo Frost Byte, con pieno supporto per Mantle, è alla base di oltre 15 giochi futuri, tra cui molti hit...
non resta che aspettare, se l'hanno sparata grossa e i miglioramenti saranno risibili prevedo un shitstorm epica

i titoloni come dici non mancano comunque, fra i quali Mass Effect "xyz" e Dragon Age 3...se riuscissero ad ottenere il supporto anche di crytec...
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more

Ultima modifica di Ale55andr0 : 27-10-2013 alle 00:45.
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2013, 00:34   #292
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21593
e d i t doppio
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more

Ultima modifica di Ale55andr0 : 27-10-2013 alle 00:41.
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2013, 00:36   #293
DukeIT
Senior Member
 
Iscritto dal: Dec 2001
Messaggi: 8488
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
nVidia mica ha inventato il PhysX, ha acquisito l'omonima azienda e poi il PhysX non aggiunge nulla di significativo ad un gioco, Mantle è tutta un'altra cosa.
Non mi sembra che cambi qualcosa se lo ha inventato o acquisito.
Per il resto è ovvio che non mi riferivo alla differenza tra un "motore" per la gestione della fisica e delle API, bensì all'utilizzo di sw/hw proprietario, in quel senso il concetto e l'approccio è lo stesso. E se apri una strada è ovvio che altri, appena possono, ne apriranno un'altra, magari più grossa, mica possono lasciarti fare.
__________________
Intel i7-4770; Arctic i30 CO; ASRock Fatal1ty H87; Corsair DDR3 1600 2*8GB; Gigabyte WindForce 780TI; Corsair AX760; Dell U2410; TP-Link Archer D5

Ultima modifica di DukeIT : 27-10-2013 alle 00:50.
DukeIT è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2013, 02:00   #294
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
Francamente non capisco cosa ci sia di male/sbagliato in Mantle, nelle GLIDE o in qualsiasi altra API, incluso CUDA. L'importante che resti sempre la possibilità di fare l'installazione con le API generiche compatibile con tutti gli HW. Odio l'ottimizzazione al rovescio: vedi
l'impossibilità di usufruire dell'AA, tessellation a mille solo per piantare l'HW, e avere la barra più lunga anche a costo di FPS indecenti....
Il rischio, seppur mitigato dal potere e dallo share di nvidia, è quello di avere titoli indecenti sul piano visivo con le DX. A questa eventualità comunque ci credo poco.
però capisci bene che l'ottimizzazione "spinta" ha portato e porterà ancora a situazioni del tipo "mancata implementazione di una feature su un'architettura" o problemi a far girare fluidamente un titolo su un'altra architettura, ecc. Questo vale per i giochi quanto per SW di altro tipo (anche professionale). Al "tempo delle glide" non era solo 3dfx; soprattutto nei primi tempi, prima che si affermassero le DX, c'era una situazione di confusione totale, con titoli che giravano bene solo su una determinata architettura, altri che perdevano feature se non giravano su una particolare architettura, ecc. E oltre alle glide c'erano le ottimizzazioni per la M3D di matrox, per i chip PowerVR, per quelli di rendition. Ogni titolo aveva più "declinazioni" a seconda dell'architettura. Mantle rappresenta, di fatto, lo sviluppo di CTM (che molti pensavano che AMD avesse abbandonato) e che era stato, impropriamente, accostato a CUDA. Cuda è ad un livello di astrazione più alto mentre CTM (e mantle) sono a livello di API, quindi ad un livello appena superiore a quello dei driver e si pone in alternativa e in competizione con DX e OpenGL, sia per i giochi che per la grafica. Ora resta da capire la natura della scommessa di AMD e come reagiranno MS e Intel

Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi

l'architetturra A15 ha una logica OoO three-issue- In questo senso sono più evoluti dei core Jaguar che hanno una logica dual-issue.
grazie per le informazioni

Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi

lavoro che dovrebbe essere simile a quello fatto sulle console e con la possibilità di usare gli stessi algoritmi per la programmazione, giusto?
Credo che l'inserimento di GCN nel mercato console sia ottimo ed è forse l'unica soluzione plausibile per avere ottimizzazioni piuttosto spinte a poco prezzo (la stessa AMD afferma che Mantle non sarebbe esistito se le console non adottavano la propria creatura)
esatto; al pari di quanto avviene per le console che hanno le loro API dedicate, mantle sarà, almeno all'inizio, una API dedicata a GCN e dovrebbe permettere un'ottimizzazione molto più spinta di quanto non si riesca a fare con API "generiche", non cucite addosso ad una determinata architettura, come DX e OpenGL. IMHO, immagino che mantle sarebbe esistito anche senza avere GCN sulle console (CTM per alcune applicazioni pro già c'era) ma non avrebbe sicuramente avuto l'impulso che potrà avere con tutte le console nextgen che utilizzano GCN.

Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi

Non capisco perchè tutta questa eccitazione per una nuova architettura... Ogni volta che cambiano, se va bene, sono efficienti come quelle precedenti, se va male, vedi GTX580, i miglioramenti a parità di assorbimento sono minimi nonostante il die shrink, che dovrebbe invece garantire da solo un miglioramento del 60%.
Da un pò di tempo per AMD e nvidia non sono le prestazioni nei giochi a determinare lo sviluppo di una architettura.
la penso esattamente come te, anche perché, dal punto di vista architetturale, le uniche vere novità degli ultimi anni sono state essenzialmente due: l'adozione di shader unificati (novità che ha riguardato le unità funzionali e la loro organizzazione) e l'introduzione dell'architettura Fermi per nVidia e GCN per AMD (anche queste hanno riguardato l'organizzazione delle unità funzionali. Quello che finora non è ancora stato fatto è ottimizzare gli accessi alla memoria. L?approccio "brute force", ormai, paga sempre meno ed è inutile continuare a stivare unità funzionali dentro i chip per sopperire al fatto che ci sono ancora operazioni con latenze altissime, in parte per caratteristiche intrinseche al tipo di operazione ma in parte anche perché gli accessi alla memoria non sono così efficienti come dovrebbero
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2013, 02:20   #295
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12167
Quote:
Originariamente inviato da yossarian Guarda i messaggi
Però anche titan, in dp, non ha le stesse prestazioni delle tesla, quindi anche titan, seppure molto meno della 780, risulta castrato sotto questo punto di vista.
se da pannello driver vengono attivati i calcoli DP, la Titan attiva tutte la unita di calcolo DP, le stesse presenti nella Tesla K20X, e continua a mantenere un clock base piu alto; perchè non dovrebbe avere le stesse prestazioni ?

Quote:
Originariamente inviato da yossarian Guarda i messaggi
Già se si guarda al mondo del CAD, dove si usa la SP, tra titan e 780 cambia poco o nulla.
e invece c'è il mare in mezzo; nella maggior parte dei motori di render GPGPU la scena deve essere caricata interamente in ram, e fra 3 e 6 GB la differenza è abissale; se non viene caricata il render non parte.

tralasciando i problemi di gioventu dei motori di rendering GPGPU, credo che la ram on-board rappresenti IL limite principale del GPGPU, e credo che sia anche per questo che nVidia introdurra la memoria virtuale unificata con Maxwell, dove questo limite dovrebbe essere superato.

Quote:
Originariamente inviato da yossarian Guarda i messaggi
E per il mondo professionale ci sono schede dedicate che no sono né titan né hawaii
se parli di grafica, frequento svariati forum specifici di grafica, compresi un paio di forum ufficiali dei software che uso, e quelli che ho visto che usano le Tesla li conto sulle dita di una mano, e le hanno prese quando le Titan non esistevano; la norma, sono le GTX.

il motivo è semplice, sono gli stessi programmatori dei motori a testare e consigliare le GTX.
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 27-10-2013 alle 02:37.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2013, 08:41   #296
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da tuttodigitale Guarda i messaggi
Piccola costatazione, di gk110 ad oggi sono stati venduti pochi a dir poco, certamente meno di quanto nvidia ha pianificato 2 anni fa e quindi il discorso fatto sopra potrebbe aver un senso.
Veramente è andata a ruba la Titan, è abbastanza chiaro che abbia venduto meno come numero rispetto alle soluzioni d'alta distribuzione ma di certo gli appassionati a cui è rivolta non frega na mazza del prezzo / prestazioni.
Anche la 480 ha venduto parecchio quì nel forum nonostante tutto e così sarà sempre.

http://www.tomshw.it/cont/news/gefor...o/45849/1.html

Comunque sia è impossibile sviluppare anche su 20nm il triple degli stream se l'architettura cambia di poco, GM104 invece è previsto con 3800 stream, quindi a parer tuo se fosse a 20nm sarebbe grosso come Titan, se fosse a 28 sarebbe molto di più senza scomodare GM100.

Quote:
Originariamente inviato da Maury Guarda i messaggi
La prova del nove per Mantle sarà Battle Field 4, teniamo comunque conto che il nuovo Frost Byte, con pieno supporto per Mantle, è alla base di oltre 15 giochi futuri, tra cui molti hit...

Non ce lo vedo Mantle fallire, dove non arriva la voglia degli sviluppatori di integrare l'engine arriveranno i soldi di AMD, senza contare che AMD stessa fornsice alle software house un pieno supporto allo sviluppo dello stesso, come detto dai DICE.
Peccato che dalla Beta di BF4 non ho visto prestazioni superlative di AMD.
E questa review si riferisce al 14 Ottobre 2013 con gli ultimi driver Nvidia e AMD con tanto di supporto e patch già applicata, praticamente una decina di giorni fa e la 7970 è prevedibilmente e normalmente dietro alla 770, la Ghz Edition si e no sarà alla pari come anche per gli altri titoli.



Quote:
Originariamente inviato da Ale55andr0 Guarda i messaggi
mmm, magari potrebbe anche "evolverla" senza stravolgerla totalmente da capo a piedi, di fatto poi chi glielo farebbe fare una volta che si è aggiudicata l'intera next gen di console?
Come fai ad evolverla se le API sono prese dall'architettura SI delle console ? Basta che cambi qualcosina e già diventa differente dalle API delle console, a quel punto perdi tutti gli incentivi contro una possibile risposta da Nvidia che sappiamo tutti a quel punto non ci metterà molto a far prevalere il suo di portafoglio.

Ultima modifica di PaulGuru : 27-10-2013 alle 08:50.
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2013, 10:39   #297
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
se da pannello driver vengono attivati i calcoli DP, la Titan attiva tutte la unita di calcolo DP, le stesse presenti nella Tesla K20X, e continua a mantenere un clock base piu alto; perchè non dovrebbe avere le stesse prestazioni ?
non si vive di soli shader (non mi ricordo chi lo disse ). Battute a parte ti cito tre dei motivi per cui titan non è tesla: dal punto di vista della precisione di calcolo non ha memorie ECC (e quindi non è immune agli errori su singolo bit); dal punto di vista prestazionale non ha il doppio DMA engine per cui le latenze di accesso alla memoria da parte dei cluster di alu, rispetto alla controparte "tesla" è, di fatto quasi raddoppiato; non può utilizzare i driver TCC specifici per il gpgpu (che sono incompatibili con gli adattatori grafici.


Quote:
Originariamente inviato da AceGranger Guarda i messaggi
e invece c'è il mare in mezzo; nella maggior parte dei motori di render GPGPU la scena deve essere caricata interamente in ram, e fra 3 e 6 GB la differenza è abissale; se non viene caricata il render non parte.

tralasciando i problemi di gioventu dei motori di rendering GPGPU, credo che la ram on-board rappresenti IL limite principale del GPGPU, e credo che sia anche per questo che nVidia introdurra la memoria virtuale unificata con Maxwell, dove questo limite dovrebbe essere superato.



se parli di grafica, frequento svariati forum specifici di grafica, compresi un paio di forum ufficiali dei software che uso, e quelli che ho visto che usano le Tesla li conto sulle dita di una mano, e le hanno prese quando le Titan non esistevano; la norma, sono le GTX.

il motivo è semplice, sono gli stessi programmatori dei motori a testare e consigliare le GTX.
sul fatto che la ram on board e il suo utilizzo sia uno dei limiti principali hai perfettamente ragione. Proprio in quest'ottica, l'assenza del doppio DMA engine su titan (presente, invece, sulle tesla ma anche su hawaii) rappresenta una limitazione non di poco conto per una scheda che dovrebbe essere competitiva nel settore del gpgpu professionale

In quanto alla grafica ma non solo, dai test che si vedono in giro e che riguardano anche SW utilizzati in azienda (solidworks, CATIA, proE per il calcolo, Maya, ecc) non mi pare che titan faccia "la differenza" al punto da giustificare un esborso considerevolmente più alto sia rispetto alle altre vga di fascia alta prodotte da nVidia che rispetto alle AMD, a meno che lo scopo non è primeggiare in unigine
http://www.tomshardware.com/reviews/...w,3516-24.html
http://www.tomshardware.com/reviews/...on,3474-5.html
qui parliamo di mondo reale (e non di bench sintetici) e, in molti casi, titan le prende anche dalle "vecchie" 680 e 580
questa è la conclusione di una delle review (quella più completa ed esaustiva)
"Is The GeForce GTX Titan Good For As A Workstation Card? Good question. There's no doubt that the GeForce GTX Titan is a great gaming card, but its price is just too high for the performance it offers in professional applications, added on to the fact that its drivers simply aren't certified for most of the software we tested."

Ultima modifica di yossarian : 27-10-2013 alle 10:50.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2013, 10:47   #298
Ares17
Bannato
 
Iscritto dal: Oct 2005
Città: In giro per il mondo
Messaggi: 5824
Quote:
Originariamente inviato da AceGranger Guarda i messaggi
se da pannello driver vengono attivati i calcoli DP, la Titan attiva tutte la unita di calcolo DP, le stesse presenti nella Tesla K20X, e continua a mantenere un clock base piu alto; perchè non dovrebbe avere le stesse prestazioni ?


oltre a quello che ti ha espresso più che bene yoss (tranne che per il fatto che le gddr in tesla non sono ecc, ma viene ridotta dal controller ram la quantità di ram utilizzabile perchè una parte viene destinata all ecc in 1/9 del totale) la frequenza base si abbassa come gia ti avevo scritto e le prestazioni sono inferiori al k20 base.
Ares17 è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2013, 10:48   #299
nevets89
Senior Member
 
L'Avatar di nevets89
 
Iscritto dal: Sep 2009
Messaggi: 4465
Quote:
Originariamente inviato da PaulGuru Guarda i messaggi

Peccato che dalla Beta di BF4 non ho visto prestazioni superlative di AMD.
E questa review si riferisce al 14 Ottobre 2013 con gli ultimi driver Nvidia e AMD con tanto di supporto e patch già applicata, praticamente una decina di giorni fa e la 7970 è prevedibilmente e normalmente dietro alla 770, la Ghz Edition si e no sarà alla pari come anche per gli altri titoli.
guarda che la patch per mantle deve ancora uscire... quindi aspetta a parlare...
__________________
CASE: PHANTEKS P500A| MOBO: ROG STRIX Z690-F GAMING WIFI| CPU: i9-12900K| DISSIPATORE: LIQUID FREEZER II 420mm| RAM: TEAMGROUP XTREEM 32GB @6600MHz CL34| STORAGE: vari Nvme| VGA: ZOTAC RTX 3070 Ti| ALI: CORSAIR RM1000X| S.O: WINDOWS 11 PRO X64
nevets89 è offline   Rispondi citando il messaggio o parte di esso
Old 27-10-2013, 10:51   #300
PaulGuru
Bannato
 
Iscritto dal: May 2012
Messaggi: 10789
Quote:
Originariamente inviato da nevets89 Guarda i messaggi
guarda che la patch per mantle deve ancora uscire... quindi aspetta a parlare...
Ok
PaulGuru è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Ecovacs Goat O1200 LiDAR Pro: la prova del robot tagliaerba con tagliabordi integrato Ecovacs Goat O1200 LiDAR Pro: la prova del robot...
Recensione Samsung Galaxy S26+: sfida l'Ultra, ma ha senso di esistere? Recensione Samsung Galaxy S26+: sfida l'Ultra, m...
Zeekr X e 7X provate: prezzi, autonomia fino a 615 km e ricarica in 13 minuti Zeekr X e 7X provate: prezzi, autonomia fino a 6...
Marathon: arriva il Fortnite hardcore Marathon: arriva il Fortnite hardcore
HP Imagine 2026: abbiamo visto HP IQ all’opera, ecco cosa può (e non può) fare HP Imagine 2026: abbiamo visto HP IQ all’opera, ...
Le 10 migliori offerte Amazon di Pasqua:...
Nuove fotografie dagli astronauti di Art...
La toilette della capsula Orion Integrit...
GeForce NOW: ecco tutte le novità in arr...
Il Realme 16 5G debutta sul mercato glob...
HONOR svela tre nuovi tablet: il più int...
Tineco Floor One S9 Master: aspira e pul...
Vivo X300 Ultra, il lancio globale è ini...
Offerte robot aspirapolvere Amazon: ECOV...
L'AI genera codice in 8 minuti e i senio...
Ring Intercom Audio a 44,99€ su Amazon: ...
Apple iPhone 16 crolla a 689€: ecco perc...
Google Pixel 9 a 449,90€ con caricatore ...
Ecco la top 7 delle offerte Amazon, aggi...
Ex ingegnere ammette il sabotaggio: migl...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 22:09.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1