View Full Version : Intel mostra la sua prossima GPU discreta: 'La libereremo nel 2020'
Redazione di Hardware Upg
17-08-2018, 13:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/intel-mostra-la-sua-prossima-gpu-discreta-la-libereremo-nel-2020_77561.html
All'interno del nuovo canale Twitter Intel Graphics la compagnia ha dato un primo assaggio della sua GPU discreta con cui tornerà sul mercato nel 2020
Click sul link per visualizzare la notizia.
nickname88
17-08-2018, 13:21
Arrivano tardi, il mining ha già cominciato la sua fase calante.
Per quel che invece riguarda il gaming non penso vadano da nessuna parte, senza contare che dovranno affrontare i soliti problemi di un prodotto d'ingresso.
mr.cluster
17-08-2018, 13:24
magari...
Non c'è mai abbastanza concorrenza nel settore grafico.
Se poi non fosse troppo costosa, potrebbe portare ad un riduzione dei prezzi, ma forse chiedo troppo.
nickname88
17-08-2018, 13:26
magari...
Non c'è mai abbastanza concorrenza nel settore grafico.
Se poi non fosse troppo costosa, potrebbe portare ad un riduzione dei prezzi, ma forse chiedo troppo.
Siccome l'Antitrust funziona solamente in un senso soltanto quando si parla di prezzi, è più facile pensare che i produttori trovino accordi per tenere alti questi ultimi.
marchigiano
17-08-2018, 13:59
potrebbero avvantaggiarsi di un eventuale funzione stile optimus ma più avanzata... vedremo, ma i margini ci sono anche senza battere nvidia in potenza pura. inoltre non c'è solo il mining ma il deep learning, la guida automatica e assistita, iot... insomma più offerta c'è meglio è
Mha... Un video scenografico che dice di aspettare 2 anni...? Vabbè... Se lo dicono loro.... Aspettiamo...
Vabbè ... Un video scenografico che non dice niente, ma solo di aspettare 2 anni...? Bha! Poteva fare qualcosa di meglio..
E' una scheda da gaming, il mining non c' entra niente.
Non vedo l' ora, ma il 2020 è tra una vita.... :(
Decisamente troppo tardi, soprattutto se non avrà anche la sezione dedicata al ray-tracing.
Inoltre nel 2020 potrebbe spuntare fuori anche delle librerie nuove per definire degli standard per il ray-tracing e qua si parla di dx12.
Di solito chi arriva per primo è sempre avvantaggiato e nvidia potrebbe avere già definito la strada per il prossimo futuro, gli altri finiranno per adattarsi.
Legolas84
17-08-2018, 14:27
La supremazia tecnologica di NVIDIA in ambito GPU è un macigno bello tosto da superare, ma Intel ha i soldi e si è presa tre anni di tempo per sviluppare la sua architettura. In più ha portato a casa l'indiano che questa volta può dimostrare di valere qualcosa (sta volta i soldi ci sono, il tempo anche, quindi niente scuse).
In bocca al lupo Intel, io ti aspetto volentieri, un terzo competitor che faccia abbassare le orecchie (e i prezzi) a NVIDIA non può che essere ben accetto! Importantissimo sarà sviluppare anche il software con la medesima qualità.
Yuno gasai
17-08-2018, 14:31
Ma intel non farebbe meglio a focalizzarsi a rendere le gpu che integrano nel procio ancora più discrete? In questi ultimi anni hanno fatto passi da gigante, IMHO dovrebbero continuare su quella strada.:)
Ma intel non farebbe meglio a focalizzarsi a rendere le gpu che integrano nel procio ancora più discrete? In questi ultimi anni hanno fatto passi da gigante, IMHO dovrebbero continuare su quella strada.:)
o sul costruire architetture senza gravi bug di sicurezza (meltdown-spectre)? :p
unnilennium
17-08-2018, 15:51
sono vecchio, già visto qualcosa di simile,vent'anni fa avevano già queste velleità sul 3d, e pure il primo prodotto che liberarono era la intel 740... osannata subito da tutte le riviste del settore, ottima grafica, buona qualità, ma lato potenza era ridicola anche per allora... nvidia all'esordio la disintegrò subito... non vedo adesso nessun motivo per sospettare che non faranno lo stesso. hanno spacciato rivoluzioni grafiche ogni volta, la nuova architettura bla bla.. e poi faceva sempre pena. la più grande rivoluzione grafica degna di nota è stata l'integrazione di una vga amd dentro un processore intel.. chiaro segno di alzare bandiera bianca e dare forfait. e pazienza se le solite riviste hanno sempre spacciato la vga intel rivoluzionaria, raddoppia la potenza ad ogni versione... peccato che raddoppiand raddoppiando ci volesse comunque la virgola mobile per capire quanto veloce andava, lo 0,000001 o lo 0,00001 più veloce...
Gyammy85
17-08-2018, 16:22
#poorvo.... oh wait! :asd:
#poortutti, ma intel ha i soldi (cit.)
HL3 confirmed.
"La libereremo nel 2020"?
Arrivano tardi, il mining ha già cominciato la sua fase calante.
Per quel che invece riguarda il gaming non penso vadano da nessuna parte, senza contare che dovranno affrontare i soliti problemi di un prodotto d'ingresso.Intel è interessata a tutto tranne che al mining. :sofico:
marchigiano
17-08-2018, 17:47
Ma intel non farebbe meglio a focalizzarsi a rendere le gpu che integrano nel procio ancora più discrete? In questi ultimi anni hanno fatto passi da gigante, IMHO dovrebbero continuare su quella strada.:)
le gpu integrate probabilmente sono al limite, integrare L4 costa caro, forse sarà meglio avere una integrata di basso livello per il 2D e rendering pagine, con una discreta di potenza necessaria all'utilizzatore ma che si integra perfettamente con la cpu e può spegnersi al 100% in una frazione di secondo quando non serve in maniera del tutto trasparente per l'utente, sarebbe una gran cosa sui notebook e all in one
e-stefano
17-08-2018, 18:08
Si ma dire pure che non disdegnano i videogiochi... dai...
Micene.1
17-08-2018, 18:45
E' una scheda da gaming, il mining non c' entra niente.
in verita finora le due cose coincidono
nickname88
17-08-2018, 18:52
Intel è interessa a tutto tranne che al mining. :sofico:
Bene, quindi han deciso di diluire i costi di investimento delle proprie fabbriche dandogli in pasto nuovi prodotti.
Per me sarà inadeguata comunque all'uscita, senza contare che assisteremo al primo vero driver con supporti giochi completo, la strada sarà lunga.
La supremazia tecnologica di NVIDIA in ambito GPU è un macigno bello tosto da superare, ma Intel ha i soldi e si è presa tre anni di tempo per sviluppare la sua architettura. In più ha portato a casa l'indiano che questa volta può dimostrare di valere qualcosa (sta volta i soldi ci sono, il tempo anche, quindi niente scuse).
In bocca al lupo Intel, io ti aspetto volentieri, un terzo competitor che faccia abbassare le orecchie (e i prezzi) a NVIDIA non può che essere ben accetto! Importantissimo sarà sviluppare anche il software con la medesima qualità.
This.
Mi chiedo cosa se ne faccia intel delle gpu dedicate. Non è certo un mercato destinato alla crescita e con grandi ricavi...
Ci dev'essere qualcos'altro sotto.
Tsk
Io come minimo aspetto quella '+++' :asd:
In bocca al lupo Intel, io ti aspetto volentieri, un terzo competitor che faccia abbassare le orecchie (e i prezzi) a NVIDIA non può che essere ben accetto! Importantissimo sarà sviluppare anche il software con la medesima qualità.
Una cosa è certa: finché si continuerà ad acquistare prodotti NVidia, l'azienda non avrà alcun interesse ad abbassare alcunché.
Serve anche coerenza in questo senso; in caso contrario i prezzi elevati sono meritati.
Mi chiedo cosa se ne faccia intel delle gpu dedicate. Non è certo un mercato destinato alla crescita e con grandi ricavi...
Ci dev'essere qualcos'altro sotto.
Credo sia possibile che con l'introduzione del raytracing nei videogiochi la parte "compute" delle GPU diventerà sempre più importante. La GPU come "coprocessore" per il calcolo parallelo può essere una valida alternativa all'introduzione di istruzioni vettoriali sempre più ampie nelle CPU.
io speravo nella fusione Intel e Nvidia..ops aspetta troppa albana di Romagna mi ha fatto male :help: :help: :help: :doh:
Gyammy85
19-08-2018, 07:22
io speravo nella fusione Intel e Nvidia..ops aspetta troppa albana di Romagna mi ha fatto male :help: :help: :help: :doh:
Saremmo a posto saremmo :asd: :asd:
Credo sia possibile che con l'introduzione del raytracing nei videogiochi la parte "compute" delle GPU diventerà sempre più importante. La GPU come "coprocessore" per il calcolo parallelo può essere una valida alternativa all'introduzione di istruzioni vettoriali sempre più ampie nelle CPU.
E che cosa cambia da prima?
Il GPGPU computing esiste da 10 anni e oltre.
E che cosa cambia da prima?
Il GPGPU computing esiste da 10 anni e oltre.
Una serie cambiamenti, non uno solo. Se li proviamo a metterli assieme, è possibile immaginare perché Intel abbia sviluppato interesse a progettare schede video discrete.
- Rispetto a 10 anni fa la potenza computazionale delle GPU è aumentata di 20 volte o giù di lì.
- Costi e TDP non permettono di aumentare a dismisura l'ampiezza delle istruzioni vettoriali nelle CPU. In alcuni ambiti le AVX512 non bastano.
- Intel ha ingaggiato Raja Koduri, che aveva progettato AMD Vega con particolare riguardo verso il calcolo parallelo.
- In generale le GPU stanno diventando meno specializzate riguardo il rendering 3D e sempre più general-purpose.
- I videogiochi 3D faranno uso sempre maggiore di teniche di rendering che privilegeranno la parte computing piuttosto che quella di rasterizzazione.
- Presumibilmente Intel non vuole buttare completamente via l'esperienza ottenuta con Larrabee.
> Costi e TDP non permettono di aumentare a dismisura l'ampiezza delle istruzioni vettoriali nelle CPU. In alcuni ambiti le AVX512 non bastano.
Semplicemente fare calcoli su blocchi di dati molto grandi beneficia della parallelizzazione..Non è niente di nuovo, è normale che un unità dotata di 4000 "processori" porti notevoli benefici in ambito di parallelizzazione.
> In generale le GPU stanno diventando meno specializzate riguardo il rendering 3D e sempre più general-purpose.
E' un po una cosa ambigua. A parte l'aggiunta di FP64 su alcuni modelli non è che a livello microarchitetturale si possa parlare davvero di questo "general-purpose".
> - I videogiochi 3D faranno uso sempre maggiore di teniche di rendering che privilegeranno la parte computing piuttosto che quella di rasterizzazione.
I vari passaggi della rasterizzazione sono tutte computazioni eh...
> - Presumibilmente Intel non vuole buttare completamente via l'esperienza ottenuta con Larrabee.
Cioè?
I vari passaggi della rasterizzazione sono tutte computazioni eh...
In senso generale sì, ma di tipologia fondamentalmente diversa.
> - Presumibilmente Intel non vuole buttare completamente via l'esperienza ottenuta con Larrabee.
Cioè?
Intel aveva già provato in passato a progettare acceleratori PCI-express per il calcolo parallelo simili a schede video, ma la cosa fu accantonata per difficoltà varie.
https://www.anandtech.com/show/3738/intel-kills-larrabee-gpu-will-not-bring-a-discrete-graphics-product-to-market
https://en.wikipedia.org/wiki/Larrabee_(microarchitecture)
Probabilmente i tempi sono più maturi ora per ripresentare qualcosa di simile con magari un occhio orientato anche verso il lato consumer, considerando che nonostante tutto il settore gaming è in espansione.
BulletHe@d
20-08-2018, 08:15
A mio avviso l'arrivo di Kouduri in intel proprio per la divisione grafica unito ai precedenti di intel con Larrabee/Knight Landing e al fatto che la grafica adesso stà virando velocemente sul ray tracing (intel aveva già progetti di acceleratori specifici per il ray tracing) unite il tutto e avrete un quadro completo di come intel potrebbe presentare un prodotto più che pronto e concorrenziale al riguardo.
Perché il 2020 ? potrebbe dipendere dal fatto che le vga realmente pronte per il ray tracing saranno quelle che usciranno in quell'anno visto che per il 2019 sappiamo che nvidia tirerà fuori un'architettura non del tutto nuova (metà nuova e metà refresh delle attuali avevo letto un articolo al riguardo ma ad ora non lo trovo) e amd almeno per ora rimarrà sul monolitico (come scritto in un articolo di tom's) e quindi non sfrutterà ancora per bene HBM e ciò che ne deriva, il 2020 potrebbe essere l'anno della nuova rivoluzione delle vga...
Gyammy85
20-08-2018, 08:25
A mio avviso l'arrivo di Kouduri in intel proprio per la divisione grafica unito ai precedenti di intel con Larrabee/Knight Landing e al fatto che la grafica adesso stà virando velocemente sul ray tracing (intel aveva già progetti di acceleratori specifici per il ray tracing) unite il tutto e avrete un quadro completo di come intel potrebbe presentare un prodotto più che pronto e concorrenziale al riguardo.
Perché il 2020 ? potrebbe dipendere dal fatto che le vga realmente pronte per il ray tracing saranno quelle che usciranno in quell'anno visto che per il 2019 sappiamo che nvidia tirerà fuori un'architettura non del tutto nuova (metà nuova e metà refresh delle attuali avevo letto un articolo al riguardo ma ad ora non lo trovo) e amd almeno per ora rimarrà sul monolitico (come scritto in un articolo di tom's) e quindi non sfrutterà ancora per bene HBM e ciò che ne deriva, il 2020 potrebbe essere l'anno della nuova rivoluzione delle vga...
Si, velocemente, ma quest'accelerazione c'è stata più o meno a partire dal 14 agosto (di quest'anno eh, non l'anno scorso).
Certo che il marketing lavora proprio bene nelle menti...perché gli sviluppatori abituati da 30 anni con la grafica raster, hanno enormi e insormontabili difficoltà a fare engine in dx12 e vulkan, per tutte le scuse possibili (molte delle quali inventate al momento per dire qualcosa), eh ma ora tempo un mese massimo, saranno pronti alla rivoluzione.
The best is yet to come mi sa...
MadMax of Nine
20-08-2018, 08:51
"La libereremo nel 2020"?
Quanso si usa il traduttore di google...
Release (di un prodotto) = rilasciare (e non liberare)... peccato, un tempo questo era un portale serio. :(
Gyammy85
20-08-2018, 08:53
Quanso si usa il traduttore di google...
Release (di un prodotto) = rilasciare (e non liberare)... peccato, un tempo questo era un portale serio. :(
Un pò come quando si traduce "best ever" letteralmente in "migliore di sempre", ma in realtà significa "il migliore mai prodotto, il migliore di tutti" e cose così, ma fa tanto figo :cool:
Quanso si usa il traduttore di google...
Release (di un prodotto) = rilasciare (e non liberare)... peccato, un tempo questo era un portale serio. :(
E io che mi son detto: perchè fatto trenta non hanno fatto trentuno con un bello "sguinzagliare" il prodotto... :p
Un'altra che ho letto spesso non solo nelle news ma anche nel forum: "disegnare" invece di "progettare".
Ma non sarà un argomento un po' OT?
EDIT: forse non così troppo, a ripensarci.
Un pò come quando si traduce "best ever" letteralmente in "migliore di sempre", ma in realtà significa "il migliore mai prodotto, il migliore di tutti" e cose così, ma fa tanto figo :cool:
mi pare che cmq "migliore di sempre" = "il migliore mai prodotto"
Gyammy85
20-08-2018, 11:22
mi pare che cmq "migliore di sempre" = "il migliore mai prodotto"
Migliore di sempre non vuol dire niente in italiano, migliore di tutti i tempi? Ma se uno dice sempre vuol dire che per sempre non ci sarà niente di meglio, quando invece ci sarà...marketing spicciolo, niente di più.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.