Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza
Motorola edge 70 porta il concetto di smartphone ultrasottile su un terreno più concreto e accessibile: abbina uno spessore sotto i 6 mm a una batteria di capacità relativamente elevata, un display pOLED da 6,7 pollici e un comparto fotografico triplo da 50 MP. Non punta ai record di potenza, ma si configura come alternativa più pragmatica rispetto ai modelli sottili più costosi di Samsung e Apple
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Sono molte le novità che ASUS ha scelto di presentare al CES 2026 di Las Vegas, partendo da una gamma di soluzioni NUC con varie opzioni di processore passando sino agli schermi gaming con tecnologia OLED. Il tutto senza dimenticare le periferiche di input della gamma ROG e le soluzioni legate alla connettività domestica
Le novità ASUS per il 2026 nel settore dei PC desktop
Le novità ASUS per il 2026 nel settore dei PC desktop
Molte le novità anticipate da ASUS per il 2026 al CES di Las Vegas: da schede madri per processori AMD Ryzen top di gamma a chassis e ventole, passando per i kit di raffreddamento all in one integrati sino a una nuova scheda video GeForce RTX 5090. In sottofondo il tema dell'intelligenza artificiale con una workstation molto potente per installazioni non in datacenter
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 27-08-2018, 10:40   #181
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14739
@bagnino89
Immagino che si usino i Tensor Core perchè altrimenti starebbero li a girarsi i pollici. E magari sono anche più efficienti delle unità di calcolo classiche nel farlo, il che ovviamente offrirebbe un vantaggio in termini di consumi a parità di prestazioni.

Non so poi, posso supporlo da ignorante in materia, se il modello creato da nVidia preveda che parte dei calcoli sia comunque effettuato dalla scheda, per i quali è necessario ancora usare hardware specializzato per i calcoli IA. Magari l'estrema variabilità dei frame non permette di completare la "black box" e occorrono ancora dei calcoli in tempo reale.
È plausibile?

@lucusta
C'è troppa richiesta di HBM per poterle utilizzare in schede di fascia media, dove oltretutto il costo dell'interposer inciderebbe troppo su quello finale. Secondo me non ha altra scelte che usare le GDDR. A meno che non intenda venderne davvero poche ed avere un prodotto fantoccio per dire che ha qualcosa che contrastare nVidia.
I cambiamenti non sarebbero così impegnativi, dovrebbe solo sostituire il controller di memoria e anche se dovesse occupare un po' più di spazio sul die con i 7nm non sarebbe un grosso problema.

La storia della compressione che non funziona sulle nuove nVidia mi sembra fantasia: non vedo motivi per cui un algoritmo di compressione che funziona non debba più funzionare sulle nuove schede. Se hanno aumento il bus interno avranno semplicemente avuto vantaggio nel farlo.

Evitiamo di continuare con il discorso che con le Nvidia occorra una CPU superpompata, stai insistendo su una teoria tua passandola come realtà ma non l'hai mai provata.

@LkMsWb
Non capisco il tuo discorso: perchè una 2060 dovrebbe essere competitiva con la 2070? È una scheda di fascia inferiore, costerà meno e avrà prestazioni inferiori.
La "buona possibilità" di AMD con gli shrink a 7nm, come dicevo a locusta durerebbe forse pochi mesi, troppo poco per tornare competitiva. Poco dopo anche nVidia avrà le sue schede a 7nm ed è li che AMD dovrà essere competitiva, e dubito molto potrà esserlo con questi shrink.
Anche l'idea di rimettere mano a Vega per eliminarne i colli di bottiglia non so quanto possa avere senso: se devi rielaborare il progetto, tanto vale far uscire direttamente quello nuovo ed aggiornato.

Quote:
Originariamente inviato da nickname88;
Arrampicati di meno per favore.
Se ti rode sentirti escluso dai tuoi soliti discorsi è un problema tuo.
Evidentemente non sai neppure cosa significa "arrampicarsi". Eppure lo fai così spesso pur di non recedere dalle sciocchezze che dici in continuazione...
Di sicuro non sei tu che mi escludi da nulla. E non vorrei fartelo notare ma il tuo attacco era contro un altro utente, quindi non si capisce neppure da cosa dovrei essere escluso.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 10:41   #182
bagnino89
Senior Member
 
L'Avatar di bagnino89
 
Iscritto dal: Aug 2006
Messaggi: 14085
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Lo possono fare anche i cuda core, io attualmente uso i cuda core sia per addestramento che per uso, ma i tensor sono unità pensate appositamente e nel caso di turing sono separate, se DLSS usa i tensor questo sgrava i cuda lasciandoli liberi per la grafica tradizionale.
Probabilmente si potrebbero usare i cuda per DLSS ma servirebbe una gpu solo per DLSS.
A livello teorico ovviamente.

DLSS è solo un qualcosa messo li per far fare qualcosa ai tensor core quando non vengono usati per il denoise del ray tracing, non mi sorprenderebbe se non si possa usare DLSS e RT contemporaneamente anche se forse il carico non è tale da non permetterlo.
Non so quando pesano, quindi ipotizzo
Insomma i Tensor Core non solo accelerano il processo di addestramento, ma anche l'utilizzo della rete addestrata. Capito.

Quote:
Originariamente inviato da JohnWayneBobbit Guarda i messaggi
Si occupano di tutte le operazioni di training ed inferenza delle applicazioni su cui vuoi far operare la GPU.
Nel caso specifico funziona tipo Edge IoT di Microsoft che sposta un modello ideale dal cloud all'endpoint e quest'ultimo lo applica nel caso specifico (serve minimo un Raspberry 3).
Poi ovviamente puoi usarli per tutto ciò che richiede calcoli matriciali 4x4 e quindi qualsiasi cosa inerente la modellazione statica e dinamica 3d.
Immaginate il boost prestazionale di un 3d studio, rhino, cinema 4d...
C'è poi il discorso crypto-mining.
E' il Santo Graal del mining la ricerca di un algoritmo di hashing che sfrutti in modo efficace ed economicamente vantaggioso i TC.
Se lo trovano entro Natale scordatevi di acquistare la serie 20x0 a questi prezzi nel 2019.
Santi numi spero proprio di no o è finita.

Quote:
Originariamente inviato da calabar Guarda i messaggi
@bagnino89
Immagino che si usino i Tensor Core perchè altrimenti starebbero li a girarsi i pollici. E magari sono anche più efficienti delle unità di calcolo classiche nel farlo, il che ovviamente offrirebbe un vantaggio in termini di consumi a parità di prestazioni.

Non so poi, posso supporlo da ignorante in materia, se il modello creato da nVidia preveda che parte dei calcoli sia comunque effettuato dalla scheda, per i quali è necessario ancora usare hardware specializzato per i calcoli IA. Magari l'estrema variabilità dei frame non permette di completare la "black box" e occorrono ancora dei calcoli in tempo reale.
È plausibile?
Sì, secondo me vengono usati perché sono appunti più efficienti nell'applicare la "black box" rispetto ai Cuda Core.

Potrebbe anche essere che la rete di partenza, addestrata inizialmente da Nvidia, continui ad addestrarsi in tempo reale in modo da migliorare in modo specifico l'esperienza per ogni singolo utente. Se fosse così, però, le informazioni del nuovo addestramento dovrebbero essere salvate da qualche parte per poi essere riutilizzate... O magari Nvidia è furba e gli addestramenti continui di ogni utente vengono condivisi e caricati nelle nuove versioni dei driver per migliorare l'esperienza di gioco di tutti. Non sarebbe male come idea.
__________________
Ryzen 9600X / ASUS TUF Gaming B850M-Plus / Corsair 2x16 GB DDR5 6000 MHz CL30 / RTX 5070 FE / Crucial P5 Plus 1 TB / Crucial MX500 1 TB / Seasonic Focus GX-750 / Dell S2417DG / Edifier R1280T / Synology DS220+ / Pixel 6 / Steam Deck

Ultima modifica di bagnino89 : 27-08-2018 alle 10:51.
bagnino89 è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 11:31   #183
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12127
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Comunque non è solo un problema di costo ma anche di disponibilità, prendi Vega che dopo 1 mese era introvabile a qualsiasi prezzo.
quello è perchè sapevano che non ne avrebbero vendute ad asclusione degli aficionados


Quote:
Originariamente inviato da bagnino89 Guarda i messaggi
E perché?

Ho esperienza di reti neurali (le programmo e uso per scopi del tutto differenti dalla grafica), però una volta che la "black box" è pronta, perché per usarla ho bisogno di hardware apposito? Cioè, io mi aspetterei che l'upscaling sia gestito dalle unità di calcolo "classiche" (i Cuda Core insomma - se sbaglio qualche terminologia non mi insultate perché non sono esperto di architetture).
perchè è un calcolo lo puoi fare in FP16 e i Tensor Core sono accellerano gli FP16.

Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Questa è la procedura standard per l'apprendimento di qualsiasi applicazione di deep learning, non c'è niente di speciale in tutto questo se non che usa i tensor core invece dei cuda.

C'è solo una cosa che mi preoccupa, praticamente devono creare loro un profilo per ogni gioco.
Questa è una bella rottura di scatole perchè vuol dire nessuna speranza di poter applicare il DLSS a giochi per cui non è previsto.

contando che ci sara meno lavoro per i programamtori, è molto probabile che avrai piu giochi che lo usino rispeto ai vecchi AA visto che, a quanto pare, il grosso del lavoro se lo smazzera nVidia, e credo proprio che se ne smazzera un bel po, visto che tanto devono gia lavorare a ogni gioco per i driver.
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 27-08-2018 alle 11:41.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 11:32   #184
-Vale-
Senior Member
 
L'Avatar di -Vale-
 
Iscritto dal: Feb 2011
Messaggi: 4851
Quote:
Originariamente inviato da DakmorNoland Guarda i messaggi
Sì intanto faranno la fine delle 1070-1080, personalmente tornassi indietro prenderei una Vega 56. Mi sa che la 1070 la rivendo presto. Nvidia come al solito super pompata al lancio con tante recensioni pro, poi dopo 1 anno vedi che AMD rimonta e tanti saluti. Da non scordare poi il freesync, che permette di acquistare monitor allo stesso prezzo, senza pagare 200€ in più in stille gsync.

Tanto AMD ormai con il controllo delle console può fare il bello e il cattivo tempo, è solo questione di tempo prima che stringa il cappio intorno al collo di Nvidia.

Unica pecca di AMD sono i consumi elevati e li c'è poco da dire, Nvidia è sicuramente più ottimizzata su quel versante.

Fanno la fine dove ? Dopo due anni la 1080 è ancora una signora scheda , amd ha avuto tempo per fare qualcosa che non ha fatto
__________________


13700k Nvidia MSI Suprim x 4080 super
- G9 oled 49”
Ryzen 5700x3d- AMD 7800xt-32gb ram fractal ridge
MacBook Pro 15 late 2013
i7 2.0 ghz - 8gb ram - 256 gb -iPhone 12 pro max


-Vale- è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 11:43   #185
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12127
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Mah dipende da come sono organizzate le cose.
Se lo sviluppatore deve dipende da Nvidia per poter utilizzare il DLSS non penso che tutti siano così felici.
Dovrebbero mandare il gioco senza DLSS a Nvidia e aspettare di ricevere il DLSS appreso da Nvidia? Non credo Nvidia lo faccia gratis.
O forse Nvidia darà la possibilità agli sviluppatori di fare da se l'apprendimento, questo però darebbe spazio a implementazioni fatte con i piedi se gli sviluppatori danno poche immagini o immagini sbagliate in pasto all'apprendimento.

Non è così liquidabile con faciloneria.
DLSS sara integrato nei Gameworks e nei Game Engine, se il programamtore decide di implementarlo avra il pacchetto pronto.

Non c'è nulla di diverso dal passato se non che se ne occupera direttamente nVIdia.
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 12:32   #186
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12127
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Fonte?
Perchè io sto ragionando per quello che so e per quello che viene detto, ma che dell'apprendimento del DLSS se ne occuperà Nvidia senza nessun sovrapprezzo per gli sviluppatori oltre al pacchetto gameworks chi lo ha detto?
e che lo faccia gratis dove l'ho scritto ?

ho scritto che lo sviluppatore che scegliera GameWorks avra tutto dentro al pacchetto; gli accordi commericiali non li so ma credo che come avvenuto sino ad ora, sara nVidia a spingere partnership per integrare Gameworks, anche solo con il DLSS nei vari giochi; alal fine i lsuo scopo e vendere GPU.
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 13:15   #187
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12127
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Se partito dicendo che è più facile per lo sviluppatore, ma se lo sviluppatore deve mandare il gioco senza DLSS a Nvidia e aspettare che Nvidia faccia l'apprendimento e oltretutto a pagamento è tutt'altro che facile.
Diventa un costo sia in termini economici che di tempo.
Poi aggiungi il DLC con la skin nuova e devi rimandare il tutto a Nvidia perchè includa la nuova skin o il DLSS non sa come upscalarla?
Comodissimo guarda.

P.S: il punto è che io faccio ipotesi, tu affermazioni ma senza fonti.
è gratis


"We should note that NVIDIA will enable DLSS in games for developers for free, if a dev just sends them their code for processing on an NVIDIA DGX supercomputer. NVIDIA will hand back that code, which is reportedly just megabytes in incremental size, and enable the feature in their driver for that game. And, as with anything AI and machine learning, the more you feed the beast, the better it gets at the task at hand moving forward, in this case with a wider swath of game engines and visuals."
https://hothardware.com/news/nvidia-...mance-and-dlss


"DLSS is a specific NVIDIA function that will have to be coded game-by-game, but NVIDIA will do it for free if developers send them the code."
https://www.engadget.com/2018/08/25/...g-cores-video/


Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Comodissimo guarda.
quindi ora non va bene nemmeno che siano gratis


saranno comodissime le superfeature di AMD con l'assenza totale di supporto
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 27-08-2018 alle 13:17.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 13:46   #188
LkMsWb
Senior Member
 
L'Avatar di LkMsWb
 
Iscritto dal: Feb 2004
Città: Ancona
Messaggi: 2147
Quote:
Originariamente inviato da calabar Guarda i messaggi
@LkMsWb
Non capisco il tuo discorso: perchè una 2060 dovrebbe essere competitiva con la 2070? È una scheda di fascia inferiore, costerà meno e avrà prestazioni inferiori.
@calabar
Prima di tutto grazie perché è sempre bello parlare in modo costruttivo e civile .

Il mio discorso sulla 2060 deriva da questo: a quanto si è stimato fin ora, la 2070 in rendering tradizionale dovrebbe porsi ai livelli della 1080, su per giù. Ora, nelle generazioni precedenti, la serie 60 oltrepassava la 70 avvicinandosi alla 80 della precedente generazione (vedi 1060). Siccome non c'è stato un cambio di processo produttivo sicuramente la cosa è più difficile, ma essendo la 2060 una GTX, quindi senza RT e (forse) senza TC, fare una scheda già così castrata tecnologicamente e porla come prestazioni circa a livello della 1070 mi sembra un incremento davvero basso per una nuova serie.

Ho quindi ipotizzato che la 2060 possa avere prestazioni ben più simili alla 2070, perdendo principalmente il supporto al Ray-Tracing, ma è una mia ipotesi e basta, per giustificarne il posizionamento rispetto alla serie 1000, tutto lì

Quote:
Originariamente inviato da calabar Guarda i messaggi
La "buona possibilità" di AMD con gli shrink a 7nm, come dicevo a locusta durerebbe forse pochi mesi, troppo poco per tornare competitiva. Poco dopo anche nVidia avrà le sue schede a 7nm ed è li che AMD dovrà essere competitiva, e dubito molto potrà esserlo con questi shrink.
Anche l'idea di rimettere mano a Vega per eliminarne i colli di bottiglia non so quanto possa avere senso: se devi rielaborare il progetto, tanto vale far uscire direttamente quello nuovo ed aggiornato.
Il punto secondo me sarebbe avere qualcosa anche per quei pochi mesi, che sia immediatamente pronto e a basso prezzo, perché al momento AMD non ha praticamente schede da contrastare alla serie 2000, sempre che le GTX 2000 escano presto. Certo che l'architettura va aggiornata comunque entro breve. Proprio per questo mi chiedo quanto sia possibile dare una sistemata a Vega in breve tempo e a basso prezzo, per fare poi davvero un progetto nuovo, perché il semplice die-shrink risolve poco per AMD, portare le HBM in fascia media è infattibile a livello economico, soprattutto considerando la fame di banda delle Radeon che impedisce l'uso di HBM a frequenza inferiore. E riprogettare il controller con le GDDR6 credo sia ancora più costoso. Vedremo.
__________________
Main: NZXT H7 Flow|RM1000x|Z690 Aorus Master|i7 13700k|LFII 360|G.Skill 2x16GB 6400C32|Asus RTX 4090 TUF OC|Asus PG32UCDM + Pana 55JZ1500|Audient iD14 II + Kali LP-6 + Sundara|2xFireCuda 530 2TB + MX500 1TB + NAS
Encoding: Define R6|Prime TX-750|B550 Tomahawk|5900X|2x8GB 3200C14|A380
LkMsWb è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 15:06   #189
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14739
Quote:
Originariamente inviato da LkMsWb;
Il punto secondo me sarebbe avere qualcosa anche per quei pochi mesi, che sia immediatamente pronto e a basso prezzo, ...
Se queste schede uscissero ora potrebbe avere un senso. Ma devono comunque aspettare i 7nm, quindi in ogni caso non avresti qualcosa "immediatamente e a basso prezzo".

A questo punto mi pare più probabile che AMD faccia uscire lo shrink di Vega solo per quella nicchia mercato che la richiede e esca sul mercato gaming direttamente con Navi qualche mese dopo, insieme alle schede 7nm di nVidia.
Se Navi andasse bene non sarebbe una cattiva soluzione, dato che ultimamente è sempre uscita in ritardo rispetto ad nVidia: in pratica AMD avrebbe saltato questa generazione a 12nm per poter recuperare il ritardo con i 7nm.

Per quanto riguarda lo shrink di Vega a 7nm sul mercato consumer, potrebbe al più uscire qualcosa per riciclare gli scarti di produzione (quelli che non hanno passato i test per le radeon instinct) così da non sprecare quei die non ottimali. Non sarebbe davvero competitiva ma almeno tirerebbe fuori qualcosa che la traghi meglio verso Navi (e stavolta davvero a costo zero, dato che Vega a 7nm sappiamo già che uscirà per il mercato enterprise).

Insomma, AMD potrebbe aver deciso di mollare l'osso in questa generazione nel tentativo di concentrare gli sforzi sui 7nm e uscire li con un prodotto davvero competitivo (similmente a quanto fatto con le CPU, del resto).
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 15:11   #190
calabar
Senior Member
 
L'Avatar di calabar
 
Iscritto dal: Oct 2001
Messaggi: 14739
@LkMsWb
Dimenticavo... (mi si scusi il doppio post)

Per quanto riguarda le 2060 e le 2070, semplicemente le prime potrebbero essere piazzate su una fascia di prezzo adeguata alle prestazioni, senza avvicinarsi alle prestazioni (senza RT e IA) della 2070. Del resto immagino dovranno competere con le schedine AMD di quella fascia, non possono quindi fare chip troppo grossi per raggiungere le prestazioni della 2070.
Oltretutto una 2060 con prestazioni troppo simili alla 2070 rischierebbe di cannibalizzare quest'ultima, il rischio è che molti utenti che non vogliono spendere tanto e che comunque pensano che sia ancora troppo presto per sfruttare davvero il RT si buttino sulla fascia inferiore che tanto sui titoli normali andrebbe quanto o quasi la più costosa sorella maggiore ma ad una costo molto più accessibile.
calabar è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 15:23   #191
LkMsWb
Senior Member
 
L'Avatar di LkMsWb
 
Iscritto dal: Feb 2004
Città: Ancona
Messaggi: 2147
Quote:
Originariamente inviato da calabar Guarda i messaggi
@LkMsWb
Dimenticavo... (mi si scusi il doppio post)

Per quanto riguarda le 2060 e le 2070, semplicemente le prime potrebbero essere piazzate su una fascia di prezzo adeguata alle prestazioni, senza avvicinarsi alle prestazioni (senza RT e IA) della 2070. Del resto immagino dovranno competere con le schedine AMD di quella fascia, non possono quindi fare chip troppo grossi per raggiungere le prestazioni della 2070.
Oltretutto una 2060 con prestazioni troppo simili alla 2070 rischierebbe di cannibalizzare quest'ultima, il rischio è che molti utenti che non vogliono spendere tanto e che comunque pensano che sia ancora troppo presto per sfruttare davvero il RT si buttino sulla fascia inferiore che tanto sui titoli normali andrebbe quanto o quasi la più costosa sorella maggiore ma ad una costo molto più accessibile.
L'ho pensato anche io, nVidia in quel senso è un po' incastrata dalla sua stessa serie 1000, a meno che non abbiano intenzione di farle sparire dal mercato in qualche modo. Tanto da qui a fine anno non avrà concorrenza, potrà decidere con comodo, bisogna anche vedere QUANDO uscirà la 2060, e se i 7nm non sono troppo lontani, SE uscirà a 12nm.
__________________
Main: NZXT H7 Flow|RM1000x|Z690 Aorus Master|i7 13700k|LFII 360|G.Skill 2x16GB 6400C32|Asus RTX 4090 TUF OC|Asus PG32UCDM + Pana 55JZ1500|Audient iD14 II + Kali LP-6 + Sundara|2xFireCuda 530 2TB + MX500 1TB + NAS
Encoding: Define R6|Prime TX-750|B550 Tomahawk|5900X|2x8GB 3200C14|A380
LkMsWb è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 16:02   #192
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12127
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Ok è gratis o meglio è incluso in gameworks, ma lo può fare solo Nvidia e secondo me resta una scomodità non da poco per lo sviluppatore.
per me invece è una gran comodita, e nVidia non è AMD quando ha a che fare con gli sviluppatori.
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - Leica RTC360 & BLK360
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 16:46   #193
sgrinfia
Senior Member
 
L'Avatar di sgrinfia
 
Iscritto dal: Jan 2013
Messaggi: 4226
Per me sarà un successo solo se ci sarà una nuova ondate di console ,visto che i giochi pc sono porting di giochi con aggiunta di qualche effetto.
quindi se non saranno implementate su console ci si dovrà accontentare di qualche gioco sporatico di tanto intanto .
Solo se Amd adottasse tale innovazione potrebbe influire sul l'adozione di più case di videogiochi , ma secondo me sono le console l'ago della bilancia, detto questo se venissero usate potrebbero essere un nuovo hanno zero per la grafica .Ben venga.......
sgrinfia è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 17:34   #194
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12127
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
No certo, AMD lo avrebbe fatto opensource o tutti si sarebbero potuti addestrare la propria AI nel bene o nel male utilizzando openCL o non so se esiste qualcosa specifico per AI (openAI ) e quando dico nel bene o nel male mi riallaccio a quello che ho scritto qualche post fa, cioè che se lo sviluppatore addestra male la AI poi si ha un risultato schifoso.

e magari l'avrebbero pure addestrata in 10 anni con una sola GPU

lo avrebbe fatto talmente aperto che avrebbe fatto aprire anche il portafogli degli sviluppatori per prendersi dei server per allenare la propria AI;
quale sviluppatore non ha un bel sacco di milioncini per farsi un server per Machine Learning e qualche altro miglioncino per formare e mantenere figure professionali specifiche per il machine Learning

ma hai la minima idea degli sbattimenti che devono farsi gli sviluppatori con la roba mal supportata OPEN AMD Stile ? c'è un motivo perchè CUDA e Tesla sono diffuse mentre AMD non se la caga nessuno


solo a te e agli altri illuminati del thread che vivono nel loro mondo dei giochi, piace il fantastico supporto di AMD.
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 27-08-2018 alle 17:38.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 17:54   #195
AceGranger
Senior Member
 
Iscritto dal: May 2005
Messaggi: 12127
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Io ho parlato del fantastico supporto AMD?
Io ho detto che sarebbe meglio opensource e ognuno si addestra il suo?
E tra l'altro lo avevo già scritto quale sarebbe stato il contro di dare la possibilità agli sviluppatori di addestrare la AI indipendente da Nvidia o AMD.

Perchè ogni tanto parte il delirio fanboyesco?
e come farebbe ad essere meglio OPEN se lo sviluppatore dovrebbe accollarsi qualsiasi sbattimento e altissimi costi di sviluppo e gestione; tralasciando totalmente il discorso qualita ottenibile da un singolo sviluppatore; meglio in quale fantastico mondo ? quello dove ti regalano tempo, server e personale formato ? senza contare che piu andra avanti e piu il codice di nVidia si affinera, avendo a disposizione un catalogo elevato di campioni differenti.

l'OPEN è solo una bella parola che va di moda usare come se fosse sempre la cosa giusta e migliore, e la leggo sempre nei post di gente che con l'OPEN non ne ha a che fare nemmeno con il binocolo.
__________________
AMD 9950X3D - MSI X870E CARBON WIFI - 198 Gb - 5080 - Dual 4K - Leica RTC360 & BLK360

Ultima modifica di AceGranger : 27-08-2018 alle 17:57.
AceGranger è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 20:14   #196
Neofreedom
Senior Member
 
L'Avatar di Neofreedom
 
Iscritto dal: May 2002
Messaggi: 1983
Allora quindi se ho capito. Da dove parto io 980 gtx sarebbe meglio secondo molti non passare alla 1080 o 1080 Ti ma direttamente alla 2080 o 2080 Ti. Il costo ovviamente è alto e fino a qua c'ero...poi però altri dicono occhio che dovrebbe uscire pure la TITAN T con costo probabile di poco superiore ai 1200-1300€ e si presuppone sarà più performante della 2080 TI però non si sa ad ora in che %. Allora mi dico ok aspetto così vediamo. Però dopo viene un altro utente avvisando, e ringrazio, che è il Santo Graal del mining la ricerca di un algoritmo di hashing che sfrutti in modo efficace ed economicamente vantaggioso i TC e se ciò avvenisse prima di natale i prezzi successivamente schizzerebbero in alto causa miners stessi. Bene ordunque... che si fa ? Metto come termine d'acquisto temporale ottobre/novembre ?

Lo so che ho abbassato il livello ma comunque ringrazio tutti per le info fino ad ora elargite

P.s. non si scrivono le parolacce
__________________
CPU: i7-12700KF, Ali: Corsair HX 1500I, MB: ASUS ROG Strix Z690-F Gaming WiFi Ram: G.SKILL Trident Z5 RGB, DDR5-5600 CL36 32 GB, NVMe M.2: 980 PRO 1TB + 980 PRO 2TB , SV: Asus TUF GeForce RTX 4090 24 GB GDDR6X, Audio: Sound Blaster AE5 Plus , LCD: Alienware 34 QD-OLED AW3423DW, Key: Corsair K95 RGB, OS: Win 11 Pro.
Neofreedom è offline   Rispondi citando il messaggio o parte di esso
Old 27-08-2018, 20:39   #197
Neofreedom
Senior Member
 
L'Avatar di Neofreedom
 
Iscritto dal: May 2002
Messaggi: 1983
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Tutto dipende da cosa si vuole.
La scelta migliore sai quale sarebbe? Tenersi la 980 se non hai problemi e aspettare l'anno prossimo visto che si vocifera di una nuova generazione a 7nm a stretto giro questa volta.

Hai ragione ma al secondo post in cui si inventa cose che non ho detto mi partono
e con questa mi hai ucciso . Vorrei giocare a tutto a 2k anche con i titoli futuri con tutto al massimo.... TUTTO. Che poi tra 1 aa sarà lo stesso problema. Ci sarà sempre magari la 3080 Ti la Titan Y ed i Miners

Grazie comunque del consiglio
__________________
CPU: i7-12700KF, Ali: Corsair HX 1500I, MB: ASUS ROG Strix Z690-F Gaming WiFi Ram: G.SKILL Trident Z5 RGB, DDR5-5600 CL36 32 GB, NVMe M.2: 980 PRO 1TB + 980 PRO 2TB , SV: Asus TUF GeForce RTX 4090 24 GB GDDR6X, Audio: Sound Blaster AE5 Plus , LCD: Alienware 34 QD-OLED AW3423DW, Key: Corsair K95 RGB, OS: Win 11 Pro.
Neofreedom è offline   Rispondi citando il messaggio o parte di esso
Old 28-08-2018, 00:34   #198
black81
Senior Member
 
L'Avatar di black81
 
Iscritto dal: Jun 2016
Messaggi: 1798
ma si in giro ce' un mega rosik che stanno volando le 1080ti come se piovesse nei mercati dell'usato... cacciate sti 1200 euri per la 2080ti cosi' mamma nvidia si ingrassa ancora di piu' visto che il mining non gli e' bastato lol
black81 è offline   Rispondi citando il messaggio o parte di esso
Old 28-08-2018, 08:53   #199
JohnWayneBobbit
Bannato
 
Iscritto dal: Aug 2018
Messaggi: 58
Quote:
Originariamente inviato da Delling Guarda i messaggi
Uhm....



In realtà stanno solo rosikando quelli che devono sempre essere "al top".
Cioè, capiamoli: han speso 700 e rotti euro per la 1080Ti pensando di poter essere al top per altri otto mesi, e poi nVIDIA se ne esce con la 2080Ti subito, che costa altri 1270 euro.

Il "top" inizia a diventare un club un po' troppo esclusivo!!!

Poi per carità, nessuno ti obbliga ovviamente, ma dopo anni che quasi deridi chi cerca di fare acquisti smart perchè "io sono esigente e voglio solo il top" diventa duro accontentarsi, no?
Magari solo 700€, dove l'hai mai trovata a quel prezzo?
Fino a 2 mesi fa tutti sui forum a lamentarsi che ci volevano 800-900€ per una 1080ti per colpa del mining, di nvidia, di amd, del Signore...
Adesso per magia sono scese a 700€ (magari addirittura le custom).
Non è che ora il prezzo nei vostri cervelli è di 700€ in modo che con la 2080TI ci siano almeno 400€ di differenza?
Perché la stessa custom che ho preso io costa OGGI solo 250€ in più e quindi il discorso "costa il doppio ladri", "boycott cause I'm a tramp", "red is better" ed altre minchiate crolla.

(932€ la 1080ti gaming x vs 1187€ la 2080ti gaming x trio)
JohnWayneBobbit è offline   Rispondi citando il messaggio o parte di esso
Old 28-08-2018, 09:00   #200
JohnWayneBobbit
Bannato
 
Iscritto dal: Aug 2018
Messaggi: 58
Quote:
Originariamente inviato da Bivvoz Guarda i messaggi
Mi sto facendo delle risate sul mercatino, vedo delle 1080ti a prezzi più bassi di alcune 1080

Presto vedremo le 1080 a 300€ e dovrò trattenere la scimmia
Dal 14/09
JohnWayneBobbit è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Motorola edge 70: lo smartphone ultrasottile che non rinuncia a batteria e concretezza Motorola edge 70: lo smartphone ultrasottile che...
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026 Display, mini PC, periferiche e networking: le n...
Le novità ASUS per il 2026 nel settore dei PC desktop Le novità ASUS per il 2026 nel settore de...
Le novità MSI del 2026 per i videogiocatori Le novità MSI del 2026 per i videogiocato...
I nuovi schermi QD-OLED di quinta generazione di MSI, per i gamers I nuovi schermi QD-OLED di quinta generazione di...
Il telescopio Hubble potrebbe andare dis...
Hisense introduce RGB MiniLED evo (a qua...
Deumidificatore De'Longhi in offerta su ...
OnePlus 15R: il 'battery phone' pi&ugrav...
Beats Studio Pro a un super prezzo su Am...
Car of the Year, la Mercedes CLA eletta ...
Kawasaki accelera lo sviluppo del robot ...
Cuffie per tutti i gusti in super offert...
Smart Manufacturing: le innovazioni ital...
Tesla e il paradosso delle elettriche: i...
Kia svela la EV2 al Salone di Bruxelles:...
Apple e NVIDIA verso lo scontro: guerra ...
Stipendio Tim Cook 2025: perché l...
Intel attacca AMD, che risponde: volano ...
Nutanix potenzia la Cloud Platform: pi&u...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 16:02.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1