Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Display, mini PC, periferiche e networking: le novità ASUS al CES 2026
Sono molte le novità che ASUS ha scelto di presentare al CES 2026 di Las Vegas, partendo da una gamma di soluzioni NUC con varie opzioni di processore passando sino agli schermi gaming con tecnologia OLED. Il tutto senza dimenticare le periferiche di input della gamma ROG e le soluzioni legate alla connettività domestica
Le novità ASUS per il 2026 nel settore dei PC desktop
Le novità ASUS per il 2026 nel settore dei PC desktop
Molte le novità anticipate da ASUS per il 2026 al CES di Las Vegas: da schede madri per processori AMD Ryzen top di gamma a chassis e ventole, passando per i kit di raffreddamento all in one integrati sino a una nuova scheda video GeForce RTX 5090. In sottofondo il tema dell'intelligenza artificiale con una workstation molto potente per installazioni non in datacenter
Le novità MSI del 2026 per i videogiocatori
Le novità MSI del 2026 per i videogiocatori
Con le nuove soluzioni della serie MEG, acronimo di MSI Enthusiast Gaming, l'azienda taiwanese vuole proporre per il 2026 una gamma di proposte desktop che si rivolgono direttamente all'utente più appassionato con schede madri, chassis e sistemi di raffreddamento. Non da ultimi troviamo anche gli alimentatori, che abbinano potenza a ricerca della massima sicurezza di funzionamento.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 04-11-2020, 12:01   #41
cronos1990
Senior Member
 
L'Avatar di cronos1990
 
Iscritto dal: Jul 2008
Città: Falconara Marittima
Messaggi: 27872
Quote:
Originariamente inviato da lucusta Guarda i messaggi
sennò non ci cava un buco dal ragno...
un ragno da un buco... cavare un buco dal ragno la vedo dura
__________________
ARCANA TALES (Ruleset GdR) - Thread ufficialiProfilo SteamFate/Stay NightFoto Astronomia
PC: CPU (Artoria): AMD 9800X3D MB (Jeanne): Gigabyte AORUS Elite B850 WiFi7 ICE GPU (Nero): MSI Ventus 3X RTX 5080 RAM: Kingston FURY Renegade 2x16GB DDR5 6000MHz - M.2: Samsung 990 PRO 2TB SCHERMO: LG UltraGear OLED 39GS95QE
cronos1990 è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 12:06   #42
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da cronos1990 Guarda i messaggi
Tutto quello che hai scritto esula dal discorso, l'hai messa sul piano Nvidia vs AMD. Che però non era il tema della discussione. Mi limito solo a dire che:
Premesso che da nessuna parte c'è scritto che Physx permette di ottenere effetti migliori, e premesso che mentre tale tecnologia veniva usata solo per "effetti scenici" (atti a stupire, non certo a tornare utili), Havok ha avuto una maggior implementazione pratica nei videogiochi (a partire da HL2, che come esempio a riguardo credo basti e avanzi).

Detto ciò: Physx ha le istruzioni per girare sulle CPU, ma sono state fornite da Nvidia volutamente castrate (esiste anche un report da parte di Intel a riguardo. Mi piacerebbe fornirti il link ma si parla di qualcosa di alcuni anni fa, sinceramente non saprei ritrovarlo) proprio per rendere ancora più "ovvia" la necessità di avere una GPU Nvidia. Pura strategia per indirizzare le vendite. In pratica si poteva sfruttare la CPU, ma le istruzioni volutamente castrate di fatto non lo permettevano.
Tant'è che potevi attivare Physx anche non avendo una GPU Nvidia, ma poi il gioco era ingiocabile. Quando ho giocato a Mirror's Edge avevo una GPU AMD: senza Physx attivo tutto a palla e granitici 60 FPS, con Physx attivo crollavo a 3-4 FPS e solo per vedere qualche foglio svolazzare.
PhysX è quasi un decennio che usa solo la CPU; su GPU non ci gira più nulla.
al tempo Intel si lamentava che nei giochi con integrato Physx le sue iGPU non potevano usare le AVX dei suoi processori, come invece potevano fare le schede video nvidia; poi, però, sia per la perdita totale d'interesse verso il mondo videoludico, sia per le scarse prestazioni che avevano ormai le sue iGPU, sia perchè spesso c'erano alternative migliori di PhysX che non limitavano solo per nome del brand dell'HW, non continuò la sua "impuntatura", anche perchè pur non avendo comunque concorrenza lato CPU era un vantaggio tattico, perchè tanto operava la stessa cosa anche lei tramite le DLL matematiche: se c'è Physx con una nvidia, su una CPU Intel, usi AVX e ti togli almeno il 5% di carico dalla CPU; in qualsiasi altra configurazione o è stesso PhysX che non usa le AVX perchè non hai HW nvidia, o sono le DLL matematiche Intel che non ti fanno usare le AVX perchè non hai un genuine Intel.
e siamo ben oltre la linea dello sfruttamento di tecnologie proprietarie per la manipolazione di mercato (con Intel che è del tutto scoperta, perchè ha dato in licenza le AVX ad AMD e VIA, in effetti), ossia stratagemmi per favorire l'anticoncorrenzialità.

Quote:
Originariamente inviato da cronos1990 Guarda i messaggi
un ragno da un buco... cavare un buco dal ragno la vedo dura
è voluta scritta così... nel frattempo lascio ulteriori messaggi tra le righe a certe persone
chi deve capire, capisce.

Ultima modifica di lucusta : 04-11-2020 alle 12:13.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 12:11   #43
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Fra l'uscire domani, il prossimo anno o quello dopo ancora cambia non poco.
Non stiamo mica parlando di una console che dura 8 anni, fra un paio d'anni si passa al 5nm e saranno già fuori dal case.
Nel frattempo senza DLSS o "analogo" in 4K con alcuni titoli ad alto dettaglio i 60fps non li tieni, poche chiacchiere e senza manco scomodare il RT.
cambia perchè lo decidi tu?
ad oggi si e no ci saranno 5000 persone con una serie 3000 in mano (e più della metà sono influencer che l'hanno avuta per promuoverla).

quando sarà il tempo, sarà dato il tutto.
conta che alla fine di questo mese si saprà molto di più e magari ci saranno già le patch.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 12:13   #44
Lithios
Senior Member
 
L'Avatar di Lithios
 
Iscritto dal: Jan 2013
Messaggi: 1471
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Fra l'uscire domani, il prossimo anno o quello dopo ancora cambia non poco.
Non stiamo mica parlando di una console che dura 8 anni, fra un paio d'anni si passa al 5nm e saranno già fuori dal case.
Nel frattempo senza DLSS o "analogo" in 4K con alcuni titoli ad alto dettaglio i 60fps non li tieni, poche chiacchiere e senza manco scomodare il RT.
4k + dettagli ultra + RT + 60 fps (perche non facciamo 144 a questo punto) ... renditi anche conto che stai parlando dello stato dell'arte tecnico assoluto di quello che può offrire ad oggi l'intero impianto tecnologico... per attuarlo come si deve ti sevirà comunque minimo una VGA da 700€ + CPU da 300€ + monitor adeguato da 600€.... un investimento che è disposto a fare chi? forse lo 0,001% dei videogiocatori ad oggi, accollandosi comunque il rischio di appoggiare una tecnologia ancora acerba solo parzialmente diffusa e supportata. E quindi di non vedere il loro investimento concretizzarsi a pieno in gran parte dei casi.

Direi che se Super Resolution esce tra 6 mesi o 18 mesi nessuno starà a strapparsi i capelli o passerà notti insonni, nel frattempo hai N situazioni e configurazioni intermedie di cui fruire per appagare la scimmia anche del più incallito early adopter
__________________
Feedback di Vendita Positivi:
Codice HTML:
Ho venduto positivamente a: Crash01, *Walter*, leofalp, Alpinet, kernelex, Zabuza, AngelusLiam, Comets, maurizioi, attilorz, delvo_69, Zeus Gamelius, didons, zafira101, Maverikwart, jonbon73, StephenFalken, NickNapoli, H.D. Lion, naruto80, egounix, sirjd, Fuccio, Micheleb, alex2173, roifs, dantess, Themitichris, ZETA81,Mi[C], michelgaetano, stalker6893, Mazda RX8, Skynetx

Ultima modifica di Lithios : 04-11-2020 alle 12:21.
Lithios è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 12:15   #45
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
Quote:
Originariamente inviato da cronos1990 Guarda i messaggi
Tutto quello che hai scritto esula dal discorso, l'hai messa sul piano Nvidia vs AMD. Che però non era il tema della discussione. Mi limito solo a dire che:
La discussione mi sembra vertesse su chi propone uno standard aperto e chi invece uno proprietario (che non è standard me lo diventa nel caso si diffonda a macchia d'olio).
Quindi parlando di un mercato in cui ci sono 2+1 attori, parlare di AMD vs nVidia mi sembra alquanto scontato.

Quote:
Originariamente inviato da cronos1990 Guarda i messaggi
Premesso che da nessuna parte c'è scritto che Physx permette di ottenere effetti migliori, e premesso che mentre tale tecnologia veniva usata solo per "effetti scenici" (atti a stupire, non certo a tornare utili), Havok ha avuto una maggior implementazione pratica nei videogiochi (a partire da HL2, che come esempio a riguardo credo basti e avanzi).

Detto ciò: Physx ha le istruzioni per girare sulle CPU, ma sono state fornite da Nvidia volutamente castrate (esiste anche un report da parte di Intel a riguardo. Mi piacerebbe fornirti il link ma si parla di qualcosa di alcuni anni fa, sinceramente non saprei ritrovarlo) proprio per rendere ancora più "ovvia" la necessità di avere una GPU Nvidia. Pura strategia per indirizzare le vendite. In pratica si poteva sfruttare la CPU, ma le istruzioni volutamente castrate di fatto non lo permettevano.
Tant'è che potevi attivare Physx anche non avendo una GPU Nvidia, ma poi il gioco era ingiocabile. Quando ho giocato a Mirror's Edge avevo una GPU AMD: senza Physx attivo tutto a palla e granitici 60 FPS, con Physx attivo crollavo a 3-4 FPS e solo per vedere qualche foglio svolazzare.
Capisco che non hai capito.
Se nVidia acquista, investe e sviluppa una tecnologia è quasi ovvio che tenti di usarla per i suoi prodotti, non per regalarla agli altri.
Altrimenti non è un investimento.
E quindi non hai capito quello che ho scritto prima: AMD non investe di suo, fa investire gli altri sulle sue tecnologie. Ecco perché non propone alcuna soluzione proprietaria.

Quote:
Originariamente inviato da Slater91 Guarda i messaggi
Temo tu stia prendendo un granchio. Da quanto mi risulta AMD e DICE hanno collaborato a sviluppare Mantle; non sono riuscito a trovare alcuna informazione circa il fatto che sarebbe stata implementata interamente da DICE.
AMD ha pensato e scritto l'API. Ma API significa solo elenco di funzioni e loro relazioni. Non il codice per implementarle. E siccome AMD non ha programmatori sufficienti per fare questo lavoro lo ha fatto fare a DICE.
Pagandoli in moneta o in promesse di creazione di gioco super figosissimo che avrebbe venduto miliardi non so, ma la collaborazione stava nella forma mente (AMD) braccio (DICE).

Quote:
Originariamente inviato da Slater91 Guarda i messaggi
Per quanto riguarda ROCm, invece, sono certo che ti sbagli: ROCm esiste da anni, ben da prima che Cray usasse CPU e GPU AMD per i suoi supercomputer. Quello a cui tu fai riferimento è questo comunicato in cui viene specificato che "An enhanced version of the open source ROCm programming environment, developed with Cray to tap into the combined performance of AMD CPUs and GPUs." Si parla però di una versione migliorata, non dell'intero pacchetto ROCm.
Mi sembra - ma potrei sbagliarmi - che guardi le cose con occhio un po' troppo favorevole a NVIDIA e un po' troppo sfavorevole ad AMD. Bisogna sempre fare attenzione a cercare di guardare le cose con la maggiore obiettività possibile, altrimenti si rischia di assumere posizioni insostenibili.
Ma io non ho detto che ROCm è una versione HP. Ho detto che HP ci sta lavorando per poterlo usare in maniera decente sui suoi nuovi server AMD based.
ROCm non è investimento AMD, ma come già detto, è una "collaborazione" con AMD che mette a disposizione il suo HW, i consigli, driver appositi ma poi il lavoro vero lo fanno gli altri.
Siccome prima che arrivasse HP ROCm era una accozzaglia di diversi strumenti open source messi insieme che nessuno ha mai preso in considerazione neanche per fare un "Hello World!" su GPU, c'è voluto che una azienda con i soldi e gli interessi nel campo come HP si prendesse carico di cercare di rendere la cosa quantomeno decente.
Certo non puoi vendere un server HPC e poi non dare il supporto per lo sviluppo su di esso. ROCm è un tentativo di fare questa cosa ma io ho il più che sospetto che durerà il tempo del lancio dei primi server AMD based e poi sarà "incorporato" in OpenAPI di Intel appena arriverà insieme agli acceleratori Intel.
D'altronde è la sola mossa che AMD e Intel possono fare per cercare di togliere parte del mercato GPGPU di nVidia che non si presenta solo con HW al top, ma anche con un supporto che per ora nessuno degli altri attori è in grado di offrire.

Quote:
Originariamente inviato da aald213 Guarda i messaggi
Cosa vuol dire esattamente "pensata" (con tanto di bold)! Non è un termine che esiste nella produzione di hw/sw

Intendi commissionata o architettata? Beh, anche se fosse il primo caso (che dubito), non è che DICE l'abbia architettata e implementata aggratis.
Vedi quanto scritto prima: un conto è pensare una API, un conto è implementarla.
Costruire l'architettura di una libreria e non scrivere una sola linea di codice esiste eccome nella produzione del SW.
E anche nell'HW.. pensa a RISC-V o in generale al processo che c'è tra progettare una architettura HW e poi metterla su silicio, fattibilr in diversi modi così come è implementabile in diversi modi la stessa API.

Mantle è stata la versione personale di AMD delle DX12 ma non aveva la forza di svilupparla da sola e ha chiesto e trovato aiuto in DICE, da tempo "loro compagni di gioco" che l'ha implementata.

Quote:
Originariamente inviato da aald213 Guarda i messaggi
È presto per parlare di prestazioni, anche se supporre prestazioni concorrenziali è anch'essa speculazione.

Una cosa importante da considerare è che i questi fatidici 2 anni, i giochi (rilasciati) che supportano l'RT sono...

... rullo di tamburi ...

una dozzina . Ah, e in questa dozzina sono inclusi Minecraft e Quake 2 . D'oh.

Sono d'accordo che il Ray Tracing è stata un'innovazione cruciale nel mondo dei videogiochi (e ci ho creduto a tal punto da comprare una RTX). Ma in questi due anni è successo poco e nulla.
Purtroppo il discorso adozione delle nuove tecnologie passa ahinoi dalle console. Se non hanno quella specifica funzione o supporto non c'è verso che questi si diffondano perché nessun sviluppatore ha interesse nell'investire in nuovi motori creati per sfruttare le nuove feature solo su PC.
E' un problema che andrebbe analizzato più a fondo, perché le console congelano il mondo videoludico per tutto il loro ciclo di vita. Metti che tra un anno esce un HW super specializzato che consente di fare motori ray-tracing a tutto schermo, fino a che MS e Sony non mettono quel pezzo di HW nelle console rimarrà un HW fantastico che non serve a nulla se non per "una dozzina di giochi".
L'evoluzione è purtroppo frenata dalle console, e ora con il singolo fornitore di HW non c'è neanche più la speranza che ci si faccia battaglia a livello di funzionalità. Quello è, e quello che c'è è pensato per costare il meno possibile, che tanto l'alta parte non può fare tanto meglio/peggio con lo stesso budget. Sembrano finiti i tempi della PS3 e della sua CPU e architettura rivoluzionarie. Oggi un NUC pompato non è dissimile da una console. Cambia solo il supporto SW (proprietario!).
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 12:22   #46
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Metti che tra un anno esce un HW super specializzato che consente di fare motori ray-tracing a tutto schermo, fino a che MS e Sony non mettono quel pezzo di HW nelle console rimarrà un HW fantastico che non serve a nulla se non per "una dozzina di giochi".
dipende sempre dal prezzo: se ti mettono quell'HW fantastico ad un prezzo di 300 euro, tutti a corre a comprarlo e a lasciare le console prendere polvere, biasimando l'acquisto ogni volta che ti passano sotto gli occhi...
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 12:28   #47
CrapaDiLegno
Senior Member
 
L'Avatar di CrapaDiLegno
 
Iscritto dal: Jan 2011
Messaggi: 4189
Quote:
Originariamente inviato da lucusta Guarda i messaggi
adaptive sync è uno standard nato 6 anni prima da VESA, ma si usava solo su alcuni portatili e su alcuni cellulari.
l'industria videoludica non lo ha voluto adottare perché è un sistema che lede il rinnovo tecnologico dell'HW, visto che consente di migliorare considerevolmente l'ergonomia d'uso.
se ho una scheda video che massimo mi fa 55fps, avendo adaptive sync non la cambio, se non l'ho mi devo tenere quadri a metà per errata sincronizzazione o un lag maggiore per imporre la sincronizzazione dovendo pure abbassare qualche settaggio per raggiungere il framerate adeguato a quel refresh.

è nvidia che ha anticipato i tempi di decisioni che erano già nell'aria...
Di tutte le minchiate che hai scritto rispondo solo a questa perché è indicativa del fatto che non sai un cazzo della questione ma hai voluto solo sputare in faccia a nVidia come hai sempre fatto.
Sui portatili esiste l'adaptive sync, ma non è uno standard e sopratutto, rullo di tamburi, al tempo del G-Sync non esisteva manco il cavo che funzionasse con questa tecnologia sul monitor di casa.
Ma tu pensa... sarà per questo che nVidia ha creato l'HW che non necessitava l'aggiornamento delle specifiche VESA del cavo e che allo stesso tempo permetteva prestazioni migliori dell'Adaptive Sync che è arrivato un anno e rotti dopo?


Quote:
Originariamente inviato da lucusta Guarda i messaggi
sui computer su cui si usa cuda nvidia ha il 100% di market share, perché se non hai un HW nvidia Cuda non funziona. usi il compilato per HW generico su FPU che il compilatore cuda genera.

e così via per tutto il discorso che hai fatto, tratto da chiacchiere da bar se non fornisci le fonti (certe ed obbiettive) di queste informazioni.
Intendevo nel campo in cui si usa CUDA nVidia ha il 90% del mercato. Visto che l'alternativa è usare qualcosa di amatoriale senza supporto alcuno o assicurato nel tempo. Roba che non va d'accordo con investimenti pluri milionari.
Ma forse ci sarai tu a mettere sul tavolo 50 o 100 milioni di euro e obbligare tutti gli utilizzatori del tuo nuovo super server HPC a sfruttare solo tecnologia open che favorisce AMD (e ha come beneficio solo quello).
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 12:28   #48
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da Lithios Guarda i messaggi
4k + dettagli ultra + RT + 60 fps (perche non facciamo 144 a questo punto) ... renditi anche conto che stai parlando dello stato dell'arte tecnico assoluto di quello che può offrire ad oggi l'intero impianto tecnologico... per attuarlo come si deve ti sevirà comunque minimo una VGA da 700€ + CPU da 300€ + monitor adeguato da 600€.... un investimento che è disposto a fare chi? forse lo 0,001% dei videogiocatori ad oggi,
Mi sà che ti è sfuggito che quì si sta parlando solo di segmenti di fascia alta.
Le schede sia Nvidia che AMD a cui ci stiamo riferendo son prodotti il cui più economico è sopra i 500 euro.

Io e tutti quelli interessati facciamo tutti parte di quel 0.1% a cui ti riferisci e abbiamo tutto il budget necessario.
Spendo più di quanto da te dettato sia lato CPU, sia lato GPU e persino lato monitor.

Ultima modifica di nickname88 : 04-11-2020 alle 12:31.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 12:31   #49
StylezZz`
Senior Member
 
L'Avatar di StylezZz`
 
Iscritto dal: Oct 2010
Messaggi: 9592
Quote:
Originariamente inviato da robweb2 Guarda i messaggi
Premio castroneria dell'anno.
Quote:
Originariamente inviato da boboviz Guarda i messaggi
Non è una "grave mancanza". Come fai ad implementare tecnologie proprietarie su piattaforme diverse?
Vulkan era nato per essere aperto....
Dai che ero ironico su, a chi può fregare di quake 2 e wolfenstein yb
StylezZz` è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 12:44   #50
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5577
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi

Purtroppo il discorso adozione delle nuove tecnologie passa ahinoi dalle console. Se non hanno quella specifica funzione o supporto non c'è verso che questi si diffondano perché nessun sviluppatore ha interesse nell'investire in nuovi motori creati per sfruttare le nuove feature solo su PC.
E' un problema che andrebbe analizzato più a fondo, perché le console congelano il mondo videoludico per tutto il loro ciclo di vita. Metti che tra un anno esce un HW super specializzato che consente di fare motori ray-tracing a tutto schermo, fino a che MS e Sony non mettono quel pezzo di HW nelle console rimarrà un HW fantastico che non serve a nulla se non per "una dozzina di giochi".
Vedi, questo contraddice quello che hai scritto prima:
Nvidia ha investito in software, Amd in partnership.
Quando AMD aveva un gross margin del 20% sulle APU consolle tutti a dire che erano dei ricavi da zombie, nessuna azienda sana userebbe quei ricavi e che per l'accoppiata tegra+vga Nvidia avrebbe chiesto moltoi di più.
Adesso che si prospetta un quasi monopolio di giochi che usano tecnologia AMD ( e con una grossa maggioranza che userà esclusivamente ottimizzazioni AMD) ci si lamenta di immobilismo.
Immobilismo di che?
Per i prossimi 5 anni ci saranno tecnologie economiche che fino ad ieri sarebbero stato appannaggio di pochi, con la prospettiva che l'hardware riuscirà a sfruttarle sempre meglio ( in specialmodo hardware AMD) mentre si prospetta all'orizzonte una nuova implementazione con maggior effetti in hardware ed un conseguente abbandono delle tecnologie closed.
Fin quando credi che nvidia riuscirà a finanziare i suoi RTX, DSLL, PhisiX nei titoli tripla A?
Se AMD riuscirà a raggiungere il 40% del mercato videoludico alla fine del 2021 ben poche software house svilupperanno giochi senza ottimizzazioni per la stessa, mentre oggi servire l'80% del mercato ricevendo anche un finanziamento per le ottimizzazioni era una gran cosa, domani quei finanziamenti potrebbero non essere più sufficienti per compensare un mancato guadagno dell'utenza AMD ( che comunque avrà un parco game molto ben nutrito)
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 14:37   #51
boboviz
Senior Member
 
Iscritto dal: Jul 2003
Messaggi: 992
Quote:
Originariamente inviato da lucusta Guarda i messaggi
lo stesso lavoro lo sta facendo Intel da decenni per far decollare le AVX, che sono oggi l'unica cosa che le può realmente salvare dalla disfatta totale (in quanto possono controllare il flusso delle prestazioni tramite compilatore intel e dll generate perché possono decidere di compilare esclusivamente e solo per i propri processori).
C'è da dire che i ryzen supportano (e pestano forte) tranquillamente le AVX/AVX2
Cosa rimane ad Intel? Le AVX512?? Una delle cose più inutili della storia...
boboviz è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 14:38   #52
pachainti
Senior Member
 
Iscritto dal: May 2020
Messaggi: 1221
Quote:
Originariamente inviato da boboviz Guarda i messaggi
Ed è uno dei problemi ben noti di OpenCL: gira su tutto (cpu, gpu, fpga, ecc) ma bisogna targhettizzarla correttamente ogni volta. Cuda gira di suo solo su Nvidia e non ti devi smazzare più di tanto per configurarla
OpenCL 2.0 è molto migliorato sotto questo punto di vista.

Quote:
Originariamente inviato da boboviz Guarda i messaggi
Anche no. Guardati, per dire, le pubblicazioni scientifiche o il mondo HPC. Sono ancora saldamente in mando a CUDA.
Per dire, Nvidia fa corsi su CUDA in varie facoltà universitarie in giro per il mondo, fornisce hw gratuitamente ai ricercatori, ecc, ecc. Amd ha cominciato da poco a farlo.
Hai qualche link con il market share o il supporto?
pachainti è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 14:42   #53
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Di tutte le minchiate che hai scritto rispondo solo a questa perché è indicativa del fatto che non sai un cazzo della questione ma hai voluto solo sputare in faccia a nVidia come hai sempre fatto.
Sui portatili esiste l'adaptive sync, ma non è uno standard e sopratutto, rullo di tamburi, al tempo del G-Sync non esisteva manco il cavo che funzionasse con questa tecnologia sul monitor di casa.
Ma tu pensa... sarà per questo che nVidia ha creato l'HW che non necessitava l'aggiornamento delle specifiche VESA del cavo e che allo stesso tempo permetteva prestazioni migliori dell'Adaptive Sync che è arrivato un anno e rotti dopo?
https://www.vesa.org/wp-content/uplo...per-140620.pdf
ratifica ufficiale della tecnologia di variable refresh di VESA con il nome di adaptive Sync; prima conosciuta come variable refresh rate.
ratificata grazie all'aiuto di AMD su DP; prima era utilizzabile su su LVDS.
marzo 2014

https://www.hwupgrade.it/articoli/sk...ync_index.html

ottobre 2014
presentazione del g-sync di nvidia
al CES 2014.

https://en.wikipedia.org/wiki/Variable_refresh_rate
"Vector displays had a variable refresh rate on their cathode ray tube (CRT), depending on the number of vectors on the screen, since more vectors took more time to draw on their screen.
More recently, since the 2010s decade, raster displays gained several industry standards for variable refresh rates. Historically, there was only a limited selection of fixed refresh rates for common display modes. "

nvidia, come al solito, non ha inventato nulla.
ha solo copiato e messo sul mercato prima degli altri, in tempi in cui nessuno chiedeva e solo per cercare di instaurare uno standard de facto.

la prossima volta che passi di qui porta le fonti delle tue informazioni, così le vagliamo insieme ed eviti di scrivere
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
tutte le minchiate che
scrivi di solito.

Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ma forse ci sarai tu a mettere sul tavolo 50 o 100 milioni di euro e obbligare tutti gli utilizzatori del tuo nuovo super server HPC a sfruttare solo tecnologia open che favorisce AMD (e ha come beneficio solo quello).
quello che faccio io t'interessa assai poco; tu impegnati a fare meno chiacchiere da bar sparando
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
minchiate
e razzolando male.
l'era delle
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
minchiate
è finita e dovrebbe finire anche l'era del poco rispetto degli altri, che te ed il tuo amichetto che ha scritto sotto di te non portate per nessuno, in questo forum.

Ultima modifica di lucusta : 04-11-2020 alle 14:59.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 14:51   #54
boboviz
Senior Member
 
Iscritto dal: Jul 2003
Messaggi: 992
Ma perchè bisogna sempre finire a Guelfi contro Ghibellini in qualsiasi discussione?
boboviz è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 14:54   #55
boboviz
Senior Member
 
Iscritto dal: Jul 2003
Messaggi: 992
Quote:
Originariamente inviato da pachainti Guarda i messaggi
OpenCL 2.0 è molto migliorato sotto questo punto di vista.
Talmente migliorato che, con OpenCL 3.0 lo hanno "abbandonato" tornando all'OpenCl 1.2

Quote:
Hai qualche link con il market share o il supporto?
Qui poi farti una idea: Hgpu
Poi mi ricordo che all'ultima convention IWOCL c'era una presentazione in cui parlavano di pubblicazioni gpgpu...
boboviz è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 15:01   #56
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da nickname88 Guarda i messaggi
Mi sà che ti è sfuggito che quì si sta parlando solo di segmenti di fascia alta.
Le schede sia Nvidia che AMD a cui ci stiamo riferendo son prodotti il cui più economico è sopra i 500 euro.

Io e tutti quelli interessati facciamo tutti parte di quel 0.1% a cui ti riferisci e abbiamo tutto il budget necessario.
Spendo più di quanto da te dettato sia lato CPU, sia lato GPU e persino lato monitor.
ti sfugge che DirectML funziona su tutto.
c'è voluta Microsoft per dare la possibilità ai possessori delle GTX nvidia di usufruire di una tecnologia che nvidia gli nega, anche sapendo che funzionerebbe sulle loro schede.
il DLSS di Control è software e va con cudacore.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 15:06   #57
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da boboviz Guarda i messaggi
C'è da dire che i ryzen supportano (e pestano forte) tranquillamente le AVX/AVX2
Cosa rimane ad Intel? Le AVX512?? Una delle cose più inutili della storia...
pestano solo se il codice non è compilato dal ICC... lì viene negato l'uso se non è genuine Intel; dimostrazione è stata la relase 20 di matlab in cui un ricercatore ha mandato di debug le mat.dll intel e queste hanno funzionato anche con un ryzen, garantendo un guadagno del 2000% in prestazioni (più del doppio del miglior Intel mainstream); tanto ha fatto che alla fine hanno rilasciato una versione 20.1 che utilizzava librerie matematiche non Intel.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 15:08   #58
nickname88
Bannato
 
Iscritto dal: Apr 2016
Messaggi: 19106
Quote:
Originariamente inviato da lucusta Guarda i messaggi
ti sfugge che DirectML funziona su tutto.
c'è voluta Microsoft per dare la possibilità ai possessori delle GTX nvidia di usufruire di una tecnologia che nvidia gli nega, anche sapendo che funzionerebbe sulle loro schede.
il DLSS di Control è software e va con cudacore.
Ah c'è già incluso l'AI nel DirectML ? Strano e finora perchè il DLSS ce l'avrebbe solo NVidia e AMD parla di Super Resolution a data da destinarsi se è veramente tutto già bello che pronto ?

Quote:
il DLSS di Control è software e va con cudacore.
Il DLSS precedente andava sui CUDA Cores, con l'update al 2.0 non credo proprio, tuttavia il problema è che AMD non ha i CUDA Cores. Non ha il DLSS nè ha pronta l'alternativa.

E anche quando uscirà se è veramente open funzionerà anche su Nvidia, ma il DLSS dei titoli che nel frattempo lo adottano continueranno a non funzionare su AMD salvo attendere ulteriormente che qualcuno introduca il supporto anche al FidelityFX.

Ultima modifica di nickname88 : 04-11-2020 alle 15:14.
nickname88 è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 15:09   #59
lucusta
Bannato
 
Iscritto dal: May 2001
Messaggi: 6246
Quote:
Originariamente inviato da boboviz Guarda i messaggi
Ma perchè bisogna sempre finire a Guelfi contro Ghibellini in qualsiasi discussione?
perchè l'era delle
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
minchiate
e del poco rispetto per gli altri deve finire.
di questa gente non se ne può più.
si segnala, si segnala, ma nessuno ti da retta....

Ultima modifica di lucusta : 04-11-2020 alle 15:14.
lucusta è offline   Rispondi citando il messaggio o parte di esso
Old 04-11-2020, 15:12   #60
boboviz
Senior Member
 
Iscritto dal: Jul 2003
Messaggi: 992
Quote:
Originariamente inviato da lucusta Guarda i messaggi
pestano solo se il codice non è compilato dal ICC... lì viene negato l'uso se non è genuine Intel; dimostrazione è stata la relase 20 di matlab in cui un ricercatore ha mandato di debug le mat.dll intel e queste hanno funzionato anche con un ryzen, garantendo un guadagno del 2000% in prestazioni (più del doppio del miglior Intel mainstream); tanto ha fatto che alla fine hanno rilasciato una versione 20.1 che utilizzava librerie matematiche non Intel.
Ah, beh, se cominciamo a parlare di compilatori e di "flag biricchini" durante la compilazione non la finiamo più
boboviz è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Display, mini PC, periferiche e networking: le novità ASUS al CES 2026 Display, mini PC, periferiche e networking: le n...
Le novità ASUS per il 2026 nel settore dei PC desktop Le novità ASUS per il 2026 nel settore de...
Le novità MSI del 2026 per i videogiocatori Le novità MSI del 2026 per i videogiocato...
I nuovi schermi QD-OLED di quinta generazione di MSI, per i gamers I nuovi schermi QD-OLED di quinta generazione di...
Recensione vivo X300 Pro: è ancora lui il re della fotografia mobile, peccato per la batteria Recensione vivo X300 Pro: è ancora lui il...
CES 2026: Lenovo punta sull’IA ambiental...
Smart city e smart land: al CES l’innova...
Grazie ai dati di Hubble abbiamo pi&ugra...
E' la GPU la grande novità delle ...
Ryzen AI 400 Series e nuovi modelli Ryze...
I notebook ASUS per il 2026: Zenbook e E...
NVIDIA alza ancora l’asticella con Vera ...
Dell UltraSharp: al CES 2026 il primo mo...
LG presenta i nuovi Gram Pro con lega Ae...
LG NanoCell 65'' a 499€: il 4K di qualit...
La Befana vien di notte, anche su Amazon...
Realme 12 4G 8GB/128GB a un prezzo folle...
DJI Mini 4 Pro Fly More Combo scende a s...
C'è un monitor Dell 24" Full...
HP Digital Passport, integrazione Copilo...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 06:52.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v
1