PDA

View Full Version : Intel Iris Xe Max: la prima GPU discreta di Intel è per i notebook


Redazione di Hardware Upg
31-10-2020, 17:00
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5869/intel-iris-xe-max-la-prima-gpu-discreta-di-intel-e-per-i-notebook_index.html

Con Iris Xe Max Intel ritorna nel mondo delle schede video discrete, presentando una soluzione pensata per i notebook sottili affiancata alla GPU Iris Xe contenuta nei processori Core di undicesima generazione

Click sul link per visualizzare l'articolo.

demon77
31-10-2020, 17:25
Ok. In buona sostanza una GPU da notebook mainstream che più o meno pareggia in prestazioni una MX350 di nvidia.
Insomma non è che griderei al miracolo. :mbe:

Se mi tira fuori una discreta da desktop che sta a pari con una 3800 allora si che grido al miracolo.

Paganetor
31-10-2020, 17:38
vabbè considera che avrà consumi ridotti rispetto alla MX350 e questo darà maggiore autonomia ai portatili...

pengfei
31-10-2020, 17:57
boh da quello che si legge non funziona come una sorta di SLI per la grafica 3D e questo deep link deve essere sfruttato esplicitamente dal programma quindi ci sono dei limiti negli scenari di utilizzo, a questo punto visto che è una GPU identica a quella integrata non conviene aumentare il budget di consumo per il processore e usare la integrata senza montare una discreta? :confused: non so quanto ne valga la pena di montarla per aumentare un po' le prestazioni nel gpu computing

Therinai
31-10-2020, 18:04
ma paragonata alla XE integrata nella cpu intel come va? Se c'è un miglioramento in performance e consumi ok, ma confrontarla con la MX350 non mi sembra molto utile all'utilizzatore finale.

Cfranco
31-10-2020, 18:43
Praticamente hanno estirpato una GPU integrata e l' hanno impacchettata come discreta, quindi se per caso la gpu integrata ti va stretta puoi attivare quella discreta ... che è uguale a quella integrata :stordita:
Seriously ? :wtf:

Però se per caso il programma lo prevede si possono far girare le due GPU assieme e migliorare un po' le prestazioni ... immagino che il bacino di utenze di gente che fa gpu computing su un ultrabook sia sterminata e più che disposta a pagare per avere due gpu integrate invece di una, così come siano sterminate le SW house disposte a spendere tempo e soldi per far funzionare i loro programmi su due gpu integrate ... :stordita:

BatBerserk
31-10-2020, 19:38
ci sarà stato un motivo se Raja Koduri s'è preso un calcio in kulo da Lisa Su e dopo 3 anni in Amd hanno pareggiato quasi il Gap con Nvidia!?!?1?

tuttodigitale
31-10-2020, 20:32
Ok. In buona sostanza una GPU da notebook mainstream che più o meno pareggia in prestazioni una MX350 di nvidia.
Insomma non è che griderei al miracolo. :mbe:

Se mi tira fuori una discreta da desktop che sta a pari con una 3800 allora si che grido al miracolo.
Non è il suo obiettivo. Credo che questa soluzione sia pensata soprattutto per poter utilizzare quantitativi ridotti di lpddr4x, riservandole alla grafica. Oltre che avere prestazioni migliori anche lato CPU.

Praticamente hanno estirpato una GPU integrata e l' hanno impacchettata come discreta, quindi se per caso la gpu integrata ti va stretta puoi attivare quella discreta ... che è uguale a quella integrata :stordita:
Seriously ? :wtf:

ma quanti sistemi hanno ad oggi 16-32 GB di memoria LPddr4x? I sistemi ICE LAKE offrono una frazione delle prestazioni pubblicizzate a causa dell'utilizzo delle ddr4.

il die delle soluzioni HPC avranno 5,3x il numero delle CU, e nella versione TOP ne monteranno 4. Tutt'latra cosa.

tuttodigitale
31-10-2020, 21:07
boh da quello che si legge non funziona come una sorta di SLI per la grafica 3D e questo deep link deve essere sfruttato esplicitamente dal programma quindi ci sono dei limiti negli scenari di utilizzo, a questo punto visto che è una GPU identica a quella integrata non conviene aumentare il budget di consumo per il processore e usare la integrata senza montare una discreta? :confused: non so quanto ne valga la pena di montarla per aumentare un po' le prestazioni nel gpu computing

No. Ci sono una serie di motivi.
1. Avere memoria dedicata permette di aumentare la bandwidth in quanto una parte è utilizzata dalla CPU (inoltre potrebbe utilizzare le più economiche ddr4 per quella di sistema e le lpddr4x in quantità ridotta per la grafica)

2. dissipare 15+25W da punti distinti è immensamente più semplice di dissiparne 40W da un die minuscolo. Il 22% di clock massimo (ma quello medio potrebbe differire in una misura maggiore, considerando che quello è raggiungibile con uno scarso utilizzo della CPU) non è una differenza da poco.

3. La GPU quando inutilizzata, anche l'igp, arriva a consumare una frazione di watt..

4. la tecnologia non impedisce certo il funzionamento stile sli....io vedo invece proprio in virtù della diffusione (probabile) di sistemi dotati di sistemi dotati di 2 GPU discretamente potenti, una motivazione sufficiente per le software house per sviluppare giochi che scalano su più gpu.

ciolla2005
31-10-2020, 22:00
Di fatto Intel si leva dai piedi Nvidia su una parte di mercato.
AMD va per conto suo da anni.
L'unica mossa che poteva fare Nvidia era avere una CPU e l'ha fatto con l'acquisto di ARM. Aspettiamoci una CPU Nvidia x86-64 nei prossimi anni.

Diegobloom
31-10-2020, 22:06
Interesserà lo 0,01% dell'utenza.
Ma sinceramente mi aspetterei qualcosa in più da Intel che questa paccottiglia.

MALEFX
31-10-2020, 23:05
Di fatto Intel si leva dai piedi Nvidia su una parte di mercato.
AMD va per conto suo da anni.
L'unica mossa che poteva fare Nvidia era avere una CPU e l'ha fatto con l'acquisto di ARM. Aspettiamoci una CPU Nvidia x86-64 nei prossimi anni.

Sei un pó confuso, anche avendo acquistato ARM, non hanno nessuna licenza per sviluppare un x86-64

demon77
31-10-2020, 23:15
Aspettiamoci una CPU Nvidia x86-64 nei prossimi anni.

No guarda non penso proprio. :D
Le unice a poter produrre CPU X86 sono INTEL, AMD e mi pare VIA.
Nvidia ha comprato ARM per una stuta mossa commerciale visto che i tempi sono maturi per una invasione delle CPU ARM in quello che da sempre è il settore di X86. Soprattutto ora che Apple passa ad ARM

ciolla2005
01-11-2020, 02:41
No guarda non penso proprio. :D
Le unice a poter produrre CPU X86 sono INTEL, AMD e mi pare VIA.
Nvidia ha comprato ARM per una stuta mossa commerciale visto che i tempi sono maturi per una invasione delle CPU ARM in quello che da sempre è il settore di X86. Soprattutto ora che Apple passa ad ARM

Astuta mica tanto l'hanno pagata ben di più di quanto valeva poco tempo fa. Ma non avevano scelta.

VIA da troppo tempo non sviluppa cose "potenti".

Pagheranno i diritti per l'x86 e faranno anche una CPU Nvidia...

coschizza
01-11-2020, 08:27
Astuta mica tanto l'hanno pagata ben di più di quanto valeva poco tempo fa. Ma non avevano scelta.

VIA da troppo tempo non sviluppa cose "potenti".

Pagheranno i diritti per l'x86 e faranno anche una CPU Nvidia...

Non possono pagare una cosa che non è in vendita

coschizza
01-11-2020, 08:28
Praticamente hanno estirpato una GPU integrata e l' hanno impacchettata come discreta, quindi se per caso la gpu integrata ti va stretta puoi attivare quella discreta ... che è uguale a quella integrata :stordita:
Seriously ? :wtf:

Però se per caso il programma lo prevede si possono far girare le due GPU assieme e migliorare un po' le prestazioni ... immagino che il bacino di utenze di gente che fa gpu computing su un ultrabook sia sterminata e più che disposta a pagare per avere due gpu integrate invece di una, così come siano sterminate le SW house disposte a spendere tempo e soldi per far funzionare i loro programmi su due gpu integrate ... :stordita:

La discreta è più veloce dell integrata , e i software di encoding sono già compatibili oggi comprendo già tutti quelli più diffusi

Crysis76
01-11-2020, 09:26
sistemi cosi sono una manna dal cielo per chi oggi deve lavorare da casa e avere a disposizione una workstation che costi poco e sia performante in progetti 3d e encoding video. Sicuramente non sono fatti per chi lo vorrebbe per i videogame, per i video game ci sono già i rispettivi notebook.

ningen
01-11-2020, 10:16
Non molto entusiasmante, non fa nemmeno competizione alle soluzioni più performanti di Nvidia ed AMD. Forse qualcuno che non ha aspettative alte le troverà utili.

zbear
01-11-2020, 14:29
ci sarà stato un motivo se Raja Koduri s'è preso un calcio in kulo da Lisa Su e dopo 3 anni in Amd hanno pareggiato quasi il Gap con Nvidia!?!?1?

Ho pensato esattamente la stessa cosa.....

Cfranco
01-11-2020, 14:52
ad Intel le performance lato game interessano poco, è piu' orientata ad offrire una piattaforma esterna alla tecnologia x86 per migliorare l'encoding e tutte le altre operazioni parallelizzabili


Mi piacerebbe sapere qual' è la percentuale di persone che usa un ultrabook per fare encoding video

coschizza
01-11-2020, 15:20
e quante userebbero un ultrabook per giocare a giochi in cui serve una dedicata?
0

demon77
01-11-2020, 15:44
Astuta mica tanto l'hanno pagata ben di più di quanto valeva poco tempo fa. Ma non avevano scelta.

Astuta mica tanto?
Ne riparliamo tra qualche anno ;)

Cfranco
01-11-2020, 15:55
e quante userebbero un ultrabook per giocare a giochi in cui serve una dedicata?

Più o meno la stessa cifra, e sommando le due cifre otterremo tutte le persone che potrebbero essere interessate a questa soluzione Intel.

frankie
01-11-2020, 17:27
Prendi un integrata, la overclocchi e hai fatto una discreta.
Giusto?

coschizza
01-11-2020, 18:21
Prendi un integrata, la overclocchi e hai fatto una discreta.
Giusto?

Esattamente come fanno glia altri

HwWizzard
01-11-2020, 21:29
Astuta mica tanto l'hanno pagata ben di più di quanto valeva poco tempo fa. Ma non avevano scelta.

VIA da troppo tempo non sviluppa cose "potenti".

Pagheranno i diritti per l'x86 e faranno anche una CPU Nvidia...

nVidia ha pagato ARM 2 bruscolini in confronto a quanto ne ricaverà. Io non so come Apple e Samsung hanno permesso che ciò accadesse. I dettagli dell’accordo non si sanno ma un domani potrebbe ritorcersi contro visto che entrambe dipendono da Arm in maniera piuttosto significativa

coschizza
01-11-2020, 23:17
solo samsung e apple? tutto il mondo mobile dipende da arm, gran parte degli indossabili, gli smart speaker, tutto cio' che è legato a freertos, aws, l'industriale di infineon, stm32, nxp, parte dell'automotive...l'operazione NON deve andare a buon fine...

Io invece ne sono molto contento sarebbe un bel balzo in avanti per la tecnologia arm

Vash88
01-11-2020, 23:55
fino a 7 volte più veloce nell'ingrandire le imagini :asd: la gpu preferita da orazio kain

Mechano
02-11-2020, 01:16
Ma davvero i creatori di contenuti necessitano di portatili sottili con dentro questa roba?

E magari pure con Windows 10?

Io riesco a creare contenuti con Chrome OS e un ARM MT8173 del mio Acer Chromebook R13 che poi verso via SFTP su server Linux...
E non mi serve una grafica del genere...

E a volte uso un Pentium N3540 di un Travelmate TMB-115 da 11,6" piccolo e fanless.

Il portatile per fare grafica è scomodissimo. Oltre che poco potente rispetto ad una WS.

randorama
02-11-2020, 08:17
I740 l'ha già detto qualcuno?

HwWizzard
02-11-2020, 08:33
Io invece ne sono molto contento sarebbe un bel balzo in avanti per la tecnologia arm

Certo come no, nVidia è il peggior acquirente dei papabili per l’utenza finale.

HwWizzard
02-11-2020, 08:35
solo samsung e apple? tutto il mondo mobile dipende da arm, gran parte degli indossabili, gli smart speaker, tutto cio' che è legato a freertos, aws, l'industriale di infineon, stm32, nxp, parte dell'automotive...l'operazione NON deve andare a buon fine...

Perché tolta Intel che non è interessata solo Apple e Samsung possono permettersi un’acquisizione del genere.

coschizza
02-11-2020, 10:08
di quale balzo in avanti stai parlando?!

coprire tutte le fasce di mercato dome l'offerta di arm è carente o inesistente ,nvidia da questo punto di vista è un partner ideale

coschizza
02-11-2020, 10:57
le fasce di mercato sono già ampiamente coperte, .

mi sono fermato a leggere qui....

unnilennium
02-11-2020, 11:28
all'atto pratico, il nulla cosmico. la maggior parte dei notebook venduti hanno una vga integrata, la dedicata serve a pochi, e sul supporto software dubito molto... lato open source intel è lider di mercato, per il resto non è certo eccelsa... nvidia non sarà sicuramente preoccupata dalle xe, anche perchè il confronto con la 350 è in pareggio, e la 350 è una 1050 rinominata, per consumare meno. resta un progetto vecchio, che ancora funziona. non vedo novità o rivoluzioni, solo un piccolo miglioramento.

andy45
02-11-2020, 11:45
Mi piacerebbe sapere qual' è la percentuale di persone che usa un ultrabook per fare encoding video

A livello professionale forse pochi, o probabilmente nessuno, a livello amatoriale sicuramente tanti...e cmq mi sembrano tutte tecnologie che se ben sfruttate e implementate possono dare anche una bella mano nel calcolo parallelo matematico, dove in molti usano gli ultrabook per fare calcoli di progetti non troppo grandi.

Pino90
02-11-2020, 12:01
mi sono fermato a leggere qui....

Perdonami, puoi specificare quali sono le fasce di mercato che non ritieni coperte? Grazie.

Cfranco
02-11-2020, 12:32
Perdonami, puoi specificare quali sono le fasce di mercato che non ritieni coperte? Grazie.

Credo che le macchinette del caffè non abbiano ancora un chip ARM, ma potrei sbagliarmi :O

Pino90
02-11-2020, 12:39
Credo che le macchinette del caffè non abbiano ancora un chip ARM, ma potrei sbagliarmi :O

Sbagli. E parlo per esperienza! :asd:

L'unico mercato lasciato fuori per ora è quello maximum performances, ma anche lì stanno arrivando. Sinceramente non vedo vuoti di mercato, e dove li vedo non credo che NVIDIA possa metterci una pezza.

"Maximum Performances" me lo sono inventato, non esiste come denominazione, volevo indicare la fascia di mercato in cui si collocano i processori (tipicamente x86) piú performanti senza compromessi sui consumi

Pino90
02-11-2020, 13:51
beh il graviton 2 di amazon devasta gli x86 in termini di performance in ambito server...

"Cost Analysis - An x86 Massacre":

https://www.anandtech.com/show/15578/cloud-clash-amazon-graviton2-arm-against-intel-and-amd/9

L'articolo che hai linkato non dice questo. Dice che costa meno, che è ben diverso, e che delle volte ció che è importante è solo il costo. La metrica "performance per dollar" valuta esattamente questo, il costo, ignorando altri aspetti.

Rimane da capire quali mercati ci siano ancora da aggredire. Aspettiamo che coschizza ce lo dica.

Pino90
02-11-2020, 14:04
le performance signle core non hanno nulla da invidiare alle proposte x86 e ci sono abbondant maargini di miglioramento. Portavo comunque solo una testimonianza di come anche nel mondo server ARM stia entrando di prepotenza.

restiamo in attesa dei chiarimenti di Coschizza

In realtá hai ragione. Mio fail: ho letto solo la pagina sulle perfomance per dollaro e ho ignorato il resto dell'articolo. Scusa!

Cfranco
02-11-2020, 14:43
Sbagli. E parlo per esperienza! :asd:

Azz
Allora direi che l' unico mercato dove non ci sono CPU ARM è quello delle CPU x86 :asd:

joe4th
02-11-2020, 15:18
Sarebbe interessante capire come si fa su Linux a discriminare tra la stessa versione della stessa scheda in versione integrata e discreta...

coschizza
04-11-2020, 08:03
deduco che coschizza non avesse elementi per dare valore alla sua posizione...

Semplicemente applico il motto “don't feel the troll”

Pino90
04-11-2020, 08:19
Semplicemente applico il motto “don't feel the troll”

Deciso di digunare?

A parte gli scherzi, qui diverse persone lavorano con gli ARM e ti hanno chiesto di spiegarti. Tu sei sparito. Mi accodo all'utente mally e deduco anche io che non hai argomenti, l'hai sparata e non sai supportarla.

coschizza
04-11-2020, 08:28
Deciso di digunare?

A parte gli scherzi, qui diverse persone lavorano con gli ARM e ti hanno chiesto di spiegarti. Tu sei sparito. Mi accodo all'utente mally e deduco anche io che non hai argomenti, l'hai sparata e non sai supportarla.

Spiegare cosa? Che gli arm ad oggi coprono meno dell 1% del mercato server come ho detto io?
Inutile tirare il discorso per voler avere ragione i dati sono incontrovertibili

Pino90
04-11-2020, 08:48
@mally
Adesso parla di mercato server. Da notare che nei post precedenti non l'aveva menzionato.