PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA Intel™


Pagine : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15

ninja750
27-01-2021, 15:29
Ieri Intel ha annunciato la sua prima scheda video 22 anni dopo la sua ultima serie 740.

È necessario uno speciale BIOS UEFI per il funzionamento delle schede grafiche desktop discrete Intel Iris Xe, ha rivelato ieri Legit Reviews. L'annuncio della prima dGPU di Intel per integratori di sistema e OEM ha suscitato gioia tra gli appassionati di GPU, finalmente, dopo così tanti anni, vediamo un terzo competitor entrare in gioco.

La grafica Intel Iris Xe è dotata della GPU DG1 basata sull'architettura Xe-LP. Questa è una entry-level performance con solo 80 Execution Units (640 Shading Units), ben al di sotto di qualsiasi cosa orientata al gioco. Tuttavia, le schede grafiche Iris Xe non sono destinate ai giocatori. Queste schede sono pensate per essere offerte per macchine multimediali a basso consumo e basso costo, sistemi di home entertainment o server aziendali.

https://www.hwupgrade.it/articoli/5869/slide_1_s.jpg

Solo con la GPU DG2 basata su Xe-HPG di Intel, potremmo finalmente vedere una vera concorrenza nei mercati dei giochi, che ora è più necessaria che mai, poiché sia ​​NVIDIA che AMD stanno affrontando problemi di disponibilità. Intel aveva già confermato, tuttavia, che la DG2 sarà prodotta da una fonderia esterna, che potrebbe anche essere influenzata dai vincoli dei wafer.

E' stato confermato da Intel che la scheda grafica funzionerà solo con alcuni sistemi Intel, vale a dire Coffee Lake-S e Comet Lake-S. È richiesto anche uno speciale chipset della scheda madre e non funzionerà su sistemi AMD.

https://cdn.videocardz.com/1/2021/01/COLORFUL-Iris-Xe-4GB-768x576.jpg

https://cdn.videocardz.com/1/2021/01/ASUS-Iris-Xe-4GB-DG1-768x576.jpg

Specifiche Irix XE:
GPU: Intel DG1
Architettura: 10nm
Execution units: 80
Frequenza: non annunciata
Memoria: 4GB LP-DDR4x
Ampiezza bus: 128bit
Bandwith: 68gb/s
TDP: 30w
BUS: PciX 4.0 16x

Specifiche Irix XE MAX:
GPU: Intel DG1
Architettura: 10nm
Execution units: 96
Frequenza: 1650mhz
Memoria: 4GB LP-DDR4x
Ampiezza bus: 128bit
Bandwith: 68gb/s
TDP: 30w
BUS: PciX 4.0 16x

https://www.hwlegend.tech/wp-content/uploads/2020/09/Intel-rilascia-le-prime-informazioni-sulle-schede-video-DG2.jpg

ninja750
27-01-2021, 15:32
sostanzialmente la DG2 che è quella che interessa a noi arriverà a ottobre, TSMC a 6nm EUV, e due varianti:

1) 4096 Shader e 8GB GDDR6 (circa RTX3060ti)
2) 1024 Shader e 6GB GDDR6

FroZen
27-01-2021, 16:45
AMD Intel mi sembra un po' troppo sinceramente :asd: vabbè che hanno il raja.....

ninja750
28-01-2021, 14:17
SE, pareggiassero veramente al primo colpo il livello prestazionale 3060ti

SE, il TDP non esplodesse Raja Vega style

SE, (in quanto novellini e in cerca di mercato) prezzassero la scheda a 400€

SE, approfittando di questa situazione producessero su un silicio libero e tutto loro (si parla di uno strano 6nm TSMC)

SE, partorissero già subito dei driver maturi e compatibili al 100% con l'attuale parco game

SE, al day1 fossero funzionanti gsync e freesync

potrebbero davvero fare il botto.

Ale55andr0
28-01-2021, 14:46
c'è qualcosa che fa pensare che non verrebbero comunque scalperate via anch'esse? (...)
Io cmq non le acquisterei, troppa poca esperienza sul campo ecc...magari chi cerca un prodotto di fascia under 200 può farci un pensiero, non ce le vedo a competere subito in fascia alta/altissima

FrancoBit
28-01-2021, 14:49
Cosa dite, iniziamo a imbastire un bel thread "Aspettando le nuove vga Intel" a sto punto, viste le tempistiche? :cool:

Mi autoquoto per quanto ho scritto stamattina nell'altro thread del pianto, l'avevate già creato, bravo Ninja! troppo avanti :sofico:

squigly
28-01-2021, 15:36
E intanto la nuova gpu intel dg1 non sarà compatibile con i processori amd letto ora su Tom's

Mallardo
28-01-2021, 15:41
E intanto la nuova gpu intel dg1 non sarà compatibile con i processori amd letto ora su Tom's

Letto anche io la notizia, spero vivamente che valga solo per questa GPU, se no si parte malissimo.

FroZen
28-01-2021, 15:43
AMD Intel mi sembra un po' troppo sinceramente :asd: vabbè che hanno il raja.....

mi autoquoto perchè evidentemente non hai colto ninja ma il titolo del thread è cannato

"Aspettando le nuove VGA AMD Intel™"

ninja750
28-01-2021, 16:40
:sbonk:

tutto previsto, adesso quelle intel su intel, ma aspettiamo quelle intel che vadano su amd :O :O

VanCleef
29-01-2021, 14:16
SE, pareggiassero veramente al primo colpo il livello prestazionale 3060ti

SE, il TDP non esplodesse Raja Vega style

SE, (in quanto novellini e in cerca di mercato) prezzassero la scheda a 400€

SE, approfittando di questa situazione producessero su un silicio libero e tutto loro (si parla di uno strano 6nm TSMC)

SE, partorissero già subito dei driver maturi e compatibili al 100% con l'attuale parco game

SE, al day1 fossero funzionanti gsync e freesync

potrebbero davvero fare il botto.
in attesa di vedere SE e quali di questi SE si avvereranno, mi iscrivo :)

FroZen
29-01-2021, 14:19
Tra una decina di anni mi ci vedo a comprare un pc OEM solo per tirargli giù sta DG1, che carrrrrrina che è :O

mikael84
29-01-2021, 16:52
Questo è quello che attualmente dovrebbe integrare la CPU con 4 tyled
https://pbs.twimg.com/media/Eswb02RXYAAJVj3.jpg:large

Questo è un prototipo HPC nvidia.
https://pbs.twimg.com/media/EhXiiREVoAAfZUe.png

Execution unit, in grado di svolgere operazioni FP ed INT, ed accesso ai registri.
https://images.hothardware.com/contentimages/newsitem/52525/content/small_intel-Xe-LP-EUs-many-more-in-Xe-HPG.jpg

Questo è un modello da integrata, però possiamo notare, la l1 con 64 TMU e 32 pixel per clock ed una primitiva
https://images.anandtech.com/doci/15973/Xe_Header_678x452.jpg

Ogni compute Tile è formato da 128 non 96 EU, vale a dire 1024 shader core.

Il raster, al contrario della foto

Attualmente Intel parla di 3 modelli:
HPC 4 tiled, 16000shader a 500watt.
2 tiled, 8196 shader a 300
1 tiled a 4096 shader a 150/200watt.

ninja750
29-01-2021, 17:03
2 tiled, 8196 shader
1 tiled a 5096 shader

qualquadra non cosa

a meno che il 2 non sia laserato o che il 1 sia più grosso e dubito non avrebbe senso

dovrebbero essere multipli

Crysis90
29-01-2021, 17:21
SE, pareggiassero veramente al primo colpo il livello prestazionale 3060ti

SE, il TDP non esplodesse Raja Vega style

SE, (in quanto novellini e in cerca di mercato) prezzassero la scheda a 400€

SE, approfittando di questa situazione producessero su un silicio libero e tutto loro (si parla di uno strano 6nm TSMC)

SE, partorissero già subito dei driver maturi e compatibili al 100% con l'attuale parco game

SE, al day1 fossero funzionanti gsync e freesync

potrebbero davvero fare il botto.

Se la mì nonna aveva le ruote....

:asd: :asd:

Non penso che due colossi storici come AMD/ATI ed NVidia permettano ad Intel di "fare il botto", così, dal nulla.
Almeno, per i primi anni.

Oltre che ad avere l'hardware buono, serve anche il software (drivers) con i controca**i.

mikael84
29-01-2021, 19:29
qualquadra non cosa

a meno che il 2 non sia laserato o che il 1 sia più grosso e dubito non avrebbe senso

dovrebbero essere multipli

E' un'errore di battitura evidente.:p
4096

appleroof
01-02-2021, 15:34
Questo è quello che attualmente dovrebbe integrare la CPU con 4 tyled
cut

Questo è un prototipo HPC nvidia.
cut

Execution unit, in grado di svolgere operazioni FP ed INT, ed accesso ai registri.
cut

Questo è un modello da integrata, però possiamo notare, la l1 con 64 TMU e 32 pixel per clock ed una primitiva
cut
Ogni compute Tile è formato da 128 non 96 EU, vale a dire 1024 shader core.

Il raster, al contrario della foto

Attualmente Intel parla di 3 modelli:
HPC 4 tiled, 16000shader a 500watt.
2 tiled, 8196 shader a 300
1 tiled a 4096 shader a 150/200watt.

eh la madonna.....avoja ali esplosi :stordita: :fagiano:

mikael84
01-02-2021, 17:42
eh la madonna.....avoja ali esplosi :stordita: :fagiano:

HPC, variante ex tesla, come GA100.:)

ninja750
07-02-2021, 11:36
arrivano le prime conferme che Asus sarà uno dei board partner di intel, da capire se costruiranno "reference" oppure solamente quelle che noi conosciamo come "custom"

ninja750
09-02-2021, 14:24
primi sample della DG1 in mano a Igors LAB

https://i.postimg.cc/0r7cxhzm/Image1.jpg (https://postimg.cc/0r7cxhzm)

https://i.postimg.cc/TpGQPQbs/Image2.jpg (https://postimg.cc/TpGQPQbs)

https://i.postimg.cc/xcR5NHy1/Image3.jpg (https://postimg.cc/xcR5NHy1)

https://i.postimg.cc/Snxr6sD7/Image4.jpg (https://postimg.cc/Snxr6sD7)

dice parecchi problemi di driver e prestazioni zoppe a livello di una GTX1030 ma qualcosa si muove

mikael84
09-02-2021, 15:28
primi sample della DG1 in mano a Igors LAB


dice parecchi problemi di driver e prestazioni zoppe a livello di una GTX1030 ma qualcosa si muove

Si dovevano iniziare così, con neppure un CT (1024shader) e prestazioni ovviamente misere (768 shader).
Il progetto è valido, appena sistemano i driver, e rilasciano i vari Tile, possono fare bene.
Il problema sarà il PP.

ninja750
09-02-2021, 20:09
Il problema sarà il PP.

dicono lo stesso dei processori 10nm

per una fascia bassa (discrete) lo vedo bene ma oltre la vedo dura in competitività perf/watt

PConly92
25-02-2021, 11:10
seguo con molto interesse

LL1
27-02-2021, 12:03
interessato anche io :sborone:


Da quando se ne riparla?
Soliti volumi dei competitor?? :asd:

ninja750
08-03-2021, 09:44
https://www.pcgamer.com/intel-is-firing-out-pre-production-versions-of-its-gaming-graphics-card-dg2/

apparentemente sembra stiano arrivando agli assemblatori i primi dev kit con schede DG2 di pre produzione, qualche ottimistico rumour parla di prestazioni potenziali a livello di 3070/6800

si parla genericamente di fine anno per i primi sample retail

mikael84
08-03-2021, 15:40
https://www.pcgamer.com/intel-is-firing-out-pre-production-versions-of-its-gaming-graphics-card-dg2/

apparentemente sembra stiano arrivando agli assemblatori i primi dev kit con schede DG2 di pre produzione, qualche ottimistico rumour parla di prestazioni potenziali a livello di 3070/6800

si parla genericamente di fine anno per i primi sample retail

Con 2 blocchi si può, ma sino a 512 EU, salvo avere un clock particolarmente alto è tosta. Le Intel hanno proprio il problema del clock attualmente.
Inoltre sono solo 256bit per 4 compute tiled (4096st).

L'architettura di base c'è, dai loro test, con 1024 EU, possono prendere una 3080/6800xt, ma il limite attuale è il clock.
Intel con le prossime gen, potrebbe anche raddoppiare gli shader per EU, come gli ARM.

ninja750
08-03-2021, 16:44
Le Intel hanno proprio il problema del clock attualmente.

forse parzialmente aggirabile col vociferato processo produttivo 6nm di cui non sappiamo nulla, deduco né TSMC né dalle attuali FAB intel

ritengo cmq troppo ottimistico che al primo colpo arrivino alle prestazioni dei due colossi

mikael84
08-03-2021, 17:01
forse parzialmente aggirabile col vociferato processo produttivo 6nm di cui non sappiamo nulla, deduco né TSMC né dalle attuali FAB intel

ritengo cmq troppo ottimistico che al primo colpo arrivino alle prestazioni dei due colossi

Si parla di 6nm di TSMC che è fondamentalmente un 7+EUV a livello di densità, con qualche miglioria.
Il progetto è valido, Intel punta molto all'HPC, stile Tesla (ormai ex) ed al MCM.
Bisogna dire però che sia AMD che nvidia, passando ai 5nm, compiranno dei passi giganteschi in avanti.

Bisognerebbe vedere un loro sample anche di fascia bassa e verificarne, TDP, clock minimi e massimi per farsi un'idea.

Crysis90
08-03-2021, 18:05
forse parzialmente aggirabile col vociferato processo produttivo 6nm di cui non sappiamo nulla, deduco né TSMC né dalle attuali FAB intel

ritengo cmq troppo ottimistico che al primo colpo arrivino alle prestazioni dei due colossi

Ma neanche al 2° o al 3°.

Stai sottovalutando 2 aspetti molto più importanti dell'hardware:

- ottimizzazione drivers
- ottimizzazione dei motori di gioco per l'architettura della GPU

Ad oggi non esistono giochi ottimizzati per architetture Intel lato GPU, nè tantomeno Intel ha l'esperienza ed il know how che hanno NVidia ed AMD sulla scrittura dei drivers.

Non pensare che una GPU che sulla carta a livello di potenza computazionale matcha una GeForce od una Radeon ti darà gli stessi risultati, perchè non sarà assolutamente così.

Almeno per i primi 3/4 anni di vita, quando e se poi gli sviluppatori cominceranno ad ottimizzare gli engines anche per le GPU Intel allora se ne potrebbe riparlare.

PConly92
08-03-2021, 18:36
beh c'è anche da dire che a Intel i soldi non mancano di certo... se si mettono d'impegno e tirano fuori i big money potrebbero farcela nel giro di un paio d'anni

ninja750
15-03-2021, 10:58
https://i.postimg.cc/GtBjmhJx/intel.jpg

con la DG2 ci siamo :D

https://i.postimg.cc/qhnnXq1f/intel-dg2-raja-koduri.jpg (https://postimg.cc/qhnnXq1f)

https://i.postimg.cc/3WXmkyym/intel-dg2-raja-koduri2.jpg (https://postimg.cc/3WXmkyym)

https://i.postimg.cc/30FvV6Mn/intel-dg2-raja-koduri3.jpg (https://postimg.cc/30FvV6Mn)

Raja che esegue 3dmark su un ES sembra promettente

ninja750
06-04-2021, 10:18
mostrati i primi test con una DG1 da 80cu (la full pare sarà 96): è una retail ASUS low profile single slot completamente passiva con soli 4GB, una delle famose vga che per adesso hanno compatibilità solo con due mobo (:asd:)

risultato allineato ad AMD RX550 / Nvidia GT1030

https://powerboard.basemark.com/benchmark-result/931877

mikael84
06-04-2021, 12:28
mostrati i primi test con una DG1 da 80cu (la full pare sarà 96): è una retail ASUS low profile single slot completamente passiva con soli 4GB, una delle famose vga che per adesso hanno compatibilità solo con due mobo (:asd:)

risultato allineato ad AMD RX550 / Nvidia GT1030

https://powerboard.basemark.com/benchmark-result/931877

Non CU ma EU. 80 EU sono 640 shader, ma come si può notare il problema è dato da clock bassissimi.:)

ninja750
18-04-2021, 10:42
interessanti update da LMID sull'ultimo engeneering sample DG2

https://cdn.videocardz.com/1/2021/04/Intel-Xe-HPG-DG2-512EU-Leak3-768x376.jpg

sembra che intel sia già riuscita a superare i clock di nvidia (complimenti al primo tentativo..) siamo sui 2200 quindi sotto AMD ma con un consumo più alto del previsto in pieno Raja style :asd: dai 225w iniziali sono a 275w anche se il sample aveva un 8+6:

https://cdn.videocardz.com/1/2021/04/Intel-Xe-HPG-DG2-512EU-Leak2-768x276.jpg

così bardata la scheda conferma prestazioni da 3070 in raster, supporto RT sì ma performance sconosciute, e pare stia già lavorando a un equivalente DLSS che se uscirà prima di quello AMD tanto di cappello :D

primi esemplari definitivi slittati fine 2021 e consegne a gente umana inizio 2022

mikael84
18-04-2021, 16:27
interessanti update da LMID sull'ultimo engeneering sample DG2


sembra che intel sia già riuscita a superare i clock di nvidia (complimenti al primo tentativo..) siamo sui 2200 quindi sotto AMD ma con un consumo più alto del previsto in pieno Raja style :asd: dai 225w iniziali sono a 275w anche se il sample aveva un 8+6:



così bardata la scheda conferma prestazioni da 3070 in raster, supporto RT sì ma performance sconosciute, e pare stia già lavorando a un equivalente DLSS che se uscirà prima di quello AMD tanto di cappello :D

primi esemplari definitivi slittati fine 2021 e consegne a gente umana inizio 2022

Beh, dovrebbe essere un 6nm TSMC, nettamente meglio del 8nm si samsung.
Cmq 2,2 su 4k shader, siamo sui 18TF, un teorico a cavallo tra 3070 e 3080 e pari alla 6800.:)

kiwivda
19-04-2021, 09:12
Ottime notizie quindi, spero solo che questo di intel non sia un progetto "OneShot" a cui non seguirà una seconda generazione, o peggio che diventi l'ennesimo competitor che insegue nVidia. Se escono a 2022 inoltrato dovranno fare ben di più di una 3070 perchè da li a poco arriveranno le Lovelace. Speriamo.

Il "Raja Style" mi perplime non poco...

ninja750
19-04-2021, 11:07
Beh, dovrebbe essere un 6nm TSMC, nettamente meglio del 8nm si samsung.
Cmq 2,2 su 4k shader, siamo sui 18TF, un teorico a cavallo tra 3070 e 3080 e pari alla 6800.:)

sì i conti della serva in realtà dicono superiore alla 3070.. cosa sulla quale dubito fortemente anche se andrebbe guardato il die size per farsi un'idea di efficenza

e poi quei 275w vogliono dire poco se non sappiamo con assoluta certezza né il quantitativo vram né se si tratta di TGP o della sola gpu, mi pare che la 3070 sia 250w "veri" totali

resta il fatto che senza stare a guardare le pulci arrivare subito all'80% a quello che gli storici gpu manufacturer sono stati in grado di fare con la newgen è tanta ma tanta roba, l'avessero fatto 8 mesi fa li avrebbero addirittura superati

mikael84
19-04-2021, 13:02
Ottime notizie quindi, spero solo che questo di intel non sia un progetto "OneShot" a cui non seguirà una seconda generazione, o peggio che diventi l'ennesimo competitor che insegue nVidia. Se escono a 2022 inoltrato dovranno fare ben di più di una 3070 perchè da li a poco arriveranno le Lovelace. Speriamo.

Il "Raja Style" mi perplime non poco...

I tempi saranno sicuramente lunghetti. Ed infatti, se parliamo di 2022, non ha alcun senso di parlare di 3070-6800 etc.
Intel si è creata una basa forte con 4 layer.

Attualmente pare volerne utilizzarne solo 1, però con 2 può arrivare a 8k shader e con 4 sino a 16k per competere con le HPC.
In futuro prevede di raddoppiare i core per layer, portandosi ad 8/16/32k shader.

Tutto bello in realtà, ma se questi fossero i TDP, già implementare 2 layer, sarebbe roba per HPC.
Per arrivare a 16k cuda, nvidia passerà ai 5nm.:)

sì i conti della serva in realtà dicono superiore alla 3070.. cosa sulla quale dubito fortemente anche se andrebbe guardato il die size per farsi un'idea di efficenza

e poi quei 275w vogliono dire poco se non sappiamo con assoluta certezza né il quantitativo vram né se si tratta di TGP o della sola gpu, mi pare che la 3070 sia 250w "veri" totali

resta il fatto che senza stare a guardare le pulci arrivare subito all'80% a quello che gli storici gpu manufacturer sono stati in grado di fare con la newgen è tanta ma tanta roba, l'avessero fatto 8 mesi fa li avrebbero addirittura superati

Come detto su, il progetto sarebbe interessante quest'anno, se va a scontrarsi con i 5 di nvidia o AMD, ci fai poco con un chip così.
Useranno solo un layer, forse il 2° per HPC, dei 4 previsti.

La 3070 ha 220watt + il PL ed arriva a 240 (almeno la FE).
Sono 150-170 watt circa di core, l'altro e ram e circuiteria.

La 3080 come la 3090, calcola la grossa parte in MVDDC, 80/100watt, 40/60sram, ed il core. Per questo hanno consumi assurdi.

A livello puramente di flops, cmq, il picco medio a 1900 della 3070 è 14,3tf, a 2 tondi e fissi (non da review), 15 esatti.
Diciamo che a livello di shader che usa è mediamente simile alla 6800, poi chiaro, quest'ultima non lavora a 1900 ma a 2250.:)

GERICO76
19-04-2021, 18:59
Comunque, l'ingresso di Intel non potrà che far bene a noi consumer, soprattutto per il fattore concorrenza (soprattutto se avranno prestazioni da medie di gamma).

floop
20-04-2021, 10:05
Comunque, l'ingresso di Intel non potrà che far bene a noi consumer, soprattutto per il fattore concorrenza (soprattutto se avranno prestazioni da medie di gamma).

io infatti seguo la cosa da tanto, lo spero!

JuneFlower
01-05-2021, 11:23
https://www.hwupgrade.it/news/cpu/intel-vuole-10-miliardi-di-dollari-in-sussidi-per-una-fab-europea-germania-in-pole-position_97396.html

Chi ha aperto questo topic è un genio e grazie a chi distribuisce informazioni magari rendendo leggibili, anche a chi sa poco o niente, le strutture di questi hardware.
Certo, la finesta che si è aperta per la concorrenza è ghiotta, se escono entro metà 2022 sarebbe un successo, il game design si basa non sul top ma sul livello medio alto delle possibilità dei giocatori. (non so se avete mai visto le statistiche: gente che ha la 5700 è rara in generale).

Beh i prezzi di AMD e NVIDIA si abbesserebbero molto non essendoci piu domanda per loro tranne che da pazzi e soprattutto perderebbero visbilità.

floop
02-05-2021, 07:06
https://www.hwupgrade.it/news/cpu/intel-vuole-10-miliardi-di-dollari-in-sussidi-per-una-fab-europea-germania-in-pole-position_97396.html

Chi ha aperto questo topic è un genio e grazie a chi distribuisce informazioni magari rendendo leggibili, anche a chi sa poco o niente, le strutture di questi hardware.
Certo, la finesta che si è aperta per la concorrenza è ghiotta, se escono entro metà 2022 sarebbe un successo, il game design si basa non sul top ma sul livello medio alto delle possibilità dei giocatori. (non so se avete mai visto le statistiche: gente che ha la 5700 è rara in generale).

Beh i prezzi di AMD e NVIDIA si abbesserebbero molto non essendoci piu domanda per loro tranne che da pazzi e soprattutto perderebbero visbilità.
come pure le 5700 e le odierne 6800 etc... io bramavo un ritorno di AMD perché la concorrenza fa ciò che ha fatto ossia prezzi più bassi e prestazioni superiori alla precedente gen vedesi il caso della RTX3070 che è una bomba peccato poi che il Covid ha rovinato tutto ma i prezzi msrp erano favolosi.

mikael84
07-05-2021, 17:17
Interessante.

https://www.pcgameshardware.de/Intel-GPU-Codename-267650/News/Intels-Gaming-Grafikkarte-ist-um-die-Ecke-1371641/

ninja750
07-05-2021, 17:24
dubito vedremo qualcosa di comprabile entro la fine dell'anno, non esistono ancora ES nelle mani di nessuno se non quelle di intel e di un solo selezionato partner (asus)

già il fatto che mettano mani avanti su quali varianti di DG2 ci saranno al lancio può far trapelare che le produzioni sono ancora lontane dal partire e che non hanno idea delle rese sui wafer

vedremo

ninja750
20-05-2021, 17:01
ci siamo quasi, in vendita i primi preassemblati con la DG1

https://videocardz.com/newz/intel-iris-xe-discrete-desktop-dg1-graphics-card-goes-on-sale-with-cyberpowerpc-system

probabilmente vedremo i primi benchmark a giorni

floop
24-05-2021, 10:01
ci siamo quasi, in vendita i primi preassemblati con la DG1

https://videocardz.com/newz/intel-iris-xe-discrete-desktop-dg1-graphics-card-goes-on-sale-with-cyberpowerpc-system

probabilmente vedremo i primi benchmark a giorni

ti sei contraddetto???? ahah

ninja750
24-05-2021, 10:05
ti sei contraddetto???? ahah

no, dicevo per la DG2 temo non avremo niente per la fine dell'anno

questa è la DG1, quella che non interessa a nessuno :p

ninja750
04-06-2021, 15:25
eccovi la full

https://cdn.videocardz.com/1/2021/06/Intel-Xe-HPG-DG2-512EU.jpg

Koduri confirms that DG2 development is ongoing. The last few weeks were very productive at Folsom labs, he reveals. The path to next-generation GPU architecture had its bumps though, as he quotes Roger Chandler: “From jittery journeys to buttery smooth”. He also revealed that game optimizations still to take place in the future, which indicates that the launch is probably not happening very soon.

floop
04-06-2021, 16:06
eccovi la full

https://cdn.videocardz.com/1/2021/06/Intel-Xe-HPG-DG2-512EU.jpg

Koduri confirms that DG2 development is ongoing. The last few weeks were very productive at Folsom labs, he reveals. The path to next-generation GPU architecture had its bumps though, as he quotes Roger Chandler: “From jittery journeys to buttery smooth”. He also revealed that game optimizations still to take place in the future, which indicates that the launch is probably not happening very soon.

vvero costerà sui 349 dollari e va come la 3070?
a parte che supporta tutti i vari dlss... :O

mikael84
05-06-2021, 16:05
dubito vedremo qualcosa di comprabile entro la fine dell'anno, non esistono ancora ES nelle mani di nessuno se non quelle di intel e di un solo selezionato partner (asus)

già il fatto che mettano mani avanti su quali varianti di DG2 ci saranno al lancio può far trapelare che le produzioni sono ancora lontane dal partire e che non hanno idea delle rese sui wafer

vedremo

Fine anno no, probabile inizi 2022.;)
Anche se una probabile 3070ti nel 2022 a 230watt non convince molto.

ninja750
11-06-2021, 11:57
a listino le prime Iris Xe DG1 low profile

https://videocardz.com/newz/gunnir-shows-off-iris-xe-intel-dg1-graphics-card-with-a-vga-port

https://cdn.videocardz.com/1/2021/06/GUNNIR-Iris-Xe-4GB-Blue-Halberd1-768x576.jpg

marca gunnir, boost 1500mhz, 4gb, 30w senza connettore aggiuntivo

floop
11-06-2021, 14:59
bene allora esistono... vediamo sta dg2 ma tanto se non risolvono a monte la produzione, cambia poco per il consumatore medio.

ninja750
18-06-2021, 15:59
https://cdn.videocardz.com/1/2021/06/ASUS-DG1-ETAPrime-Test-5-2.jpg

ninja750
18-06-2021, 16:04
primissimi leak DG2

la 448EU 1.8ghz arriva al 5% dalla 3070 quindi si confronterà con questa e navi22 6700XT

la 128EU 1.9ghz arriva sopra del 12% sulla 1650

quindi ci si può aspettare una full 512EU poco sotto la 3080 verso la 3070ti che fosse vero sarebbe una roba apocalittica come prima gpu :eek:

https://videocardz.com/newz/intel-dg2-set-to-compete-with-nvidia-ga104-and-amd-navi22-gpus

anche i clock sono molto simili a quelli nvidia

mikael84
18-06-2021, 16:52
primissimi leak DG2

la 448EU 1.8ghz arriva al 5% dalla 3070 quindi si confronterà con questa e navi22 6700XT

la 128EU 1.9ghz arriva sopra del 12% sulla 1650

quindi ci si può aspettare una full 512EU poco sotto la 3080 verso la 3070ti che fosse vero sarebbe una roba apocalittica come prima gpu :eek:

https://videocardz.com/newz/intel-dg2-set-to-compete-with-nvidia-ga104-and-amd-navi22-gpus

anche i clock sono molto simili a quelli nvidia

Beh 512 EU sono 4096 shader micca pochi. Superiori a quelli della 6800 liscia per dire.
Certo a 2,2 raggiunge 18TF, ben oltre i 15 delle 3070-ti, ma meno dei 20,5 della 3080 media stock.:)

Volendo con il secondo layer potrebbero infastidire anche i chip più prestanti. Basterebbe attivare 768EU su 1024.

floop
19-06-2021, 09:53
primissimi leak DG2

la 448EU 1.8ghz arriva al 5% dalla 3070 quindi si confronterà con questa e navi22 6700XT

la 128EU 1.9ghz arriva sopra del 12% sulla 1650

quindi ci si può aspettare una full 512EU poco sotto la 3080 verso la 3070ti che fosse vero sarebbe una roba apocalittica come prima gpu :eek:

https://videocardz.com/newz/intel-dg2-set-to-compete-with-nvidia-ga104-and-amd-navi22-gpus

anche i clock sono molto simili a quelli nvidia
che dire?
speriamo bene ma le fabbriche, quali usa ?

Ubro92
02-07-2021, 14:10
che dire?
speriamo bene ma le fabbriche, quali usa ?

Da alcuni rumors si vociferava che utilizzassero sia i 6 che 7nm di TSMC.

Shadow Man
02-07-2021, 16:24
ottimo,seguo con interesse
tuttavia temo ci sia ancora parecchio da attendere (se vogliono uscire con grandi quantita) le ultime dichiarazioni che ho letto di gelsinger parlavano di crisi per almeno un paio di anni

Ubro92
02-07-2021, 17:29
Da quello che ho letto le schede sono previste entro la fine del 2021 e inizio 2022.

Ovviamente, sulla disponibilità e prezzi sarà tutta da vedere, oramai ci sono scalper ovunque ed è impossibile fare previsioni...

mikael84
02-07-2021, 17:51
Da quello che ho letto le schede sono previste entro la fine del 2021 e inizio 2022.

Ovviamente, sulla disponibilità e prezzi sarà tutta da vedere, oramai ci sono scalper ovunque ed è impossibile fare previsioni...

Il modello da 512 EU è interessante. 18tf average in boost con un buon 6nm EUV. Siamo a -2 da 6800xt/3080.
A livello hardware Intel processa assieme le int con le FP in stile nvidia.
Lato RT/tensor è da vedere, ma sono chip molto devoti all'HPC.

floop
03-07-2021, 10:52
Il modello da 512 EU è interessante. 18tf average in boost con un buon 6nm EUV. Siamo a -2 da 6800xt/3080.

A livello hardware Intel processa assieme le int con le FP in stile nvidia.

Lato RT/tensor è da vedere, ma sono chip molto devoti all'HPC.Quindi per il gamer ciò che vuol dire?

Inviato dal mio GM1900 utilizzando Tapatalk

Dattofree
03-07-2021, 11:03
Quindi per il gamer ciò che vuol dire?

Inviato dal mio GM1900 utilizzando Tapatalk

Nessun può dirlo. La forza delle schede video non risiede puramente nell'hardware ma nel software. Dato che questo viene realizzato in combinazione tra chi produce schede e chi videogames, capirai benissimo che Intel ne deve mangiare di pane duro.

Ubro92
03-07-2021, 11:29
Quindi per il gamer ciò che vuol dire?

Inviato dal mio GM1900 utilizzando Tapatalk

Che ci tocca attendere i benchmark e i test. :fagiano:

Sulla carta promettono bene soprattutto quella con 512EU, ma ovviamente senza chip alla mano è difficile fare previsioni, inoltre dai rumors dichiarati partono da un clock base di 1.8ghz circa e in turbo fino a 2.2ghz, essendo prodotte da TSMC è possibile che diano qualche soddisfazione in più in OC, come le AMD che superano in scioltezza i 2.5ghz.

floop
03-07-2021, 11:41
Nessun può dirlo. La forza delle schede video non risiede puramente nell'hardware ma nel software. Dato che questo viene realizzato in combinazione tra chi produce schede e chi videogames, capirai benissimo che Intel ne deve mangiare di pane duro.Insomma i driver... Vabbè con le dx12 non era diventato tutto più facile sfruttare lhw etc?

Inviato dal mio GM1900 utilizzando Tapatalk

Dattofree
03-07-2021, 12:22
Insomma i driver... Vabbè con le dx12 non era diventato tutto più facile sfruttare lhw etc?

Inviato dal mio GM1900 utilizzando Tapatalk

i drivers sono l'ultimo problema. I giochi sono realizzati, dal primo all'ultimo pezzo di codice in collaborazione con chi produce schede video. Intel rischia di farsi fuori da sola come successo con Microsoft e i telefonini. Puoi montare il miglior hardware al mondo ma se non funziona correttamente come la concorrenza allora sei spacciato.

mikael84
03-07-2021, 12:33
Quindi per il gamer ciò che vuol dire?

Inviato dal mio GM1900 utilizzando Tapatalk

Che in linea di massima, con un clock medio di 2,2, ottieni 18tf, un valore a cavallo tra 3070ti/3080.
Quindi a numeri è promettente. Dopo bisognerà vedere sul campo.
Ad esempio, AMD e nvidia per flops sono molto simili.
3080 e 6800xt sono intorno ai 20.

Se Intel riuscirà a fornire prestazioni più o meno equivalenti, potrebbe essere interessante.

Rimane da vedere la parte driver, e soprattutto RT/TENSOR

Ubro92
03-07-2021, 16:25
i drivers sono l'ultimo problema. I giochi sono realizzati, dal primo all'ultimo pezzo di codice in collaborazione con chi produce schede video. Intel rischia di farsi fuori da sola come successo con Microsoft e i telefonini. Puoi montare il miglior hardware al mondo ma se non funziona correttamente come la concorrenza allora sei spacciato.

Alla fine anche con le vecchie iris e le nuove XE le prestazioni sono in linea con le varie Vega di AMD o i chippetti low di nvidia.

Forse solo lato emulazione non godono di un gran supporto tipo su rpcs3 o cemu ma è normale data la scarsa diffusione.

Poi gli ultimi changelog dei driver intel sono letteralmente dei poemi a ogni release XD

Lato driver non mi farei troppi problemi, poi è scontato che ci saranno titoli che renderanno meglio su specifiche architetture, ma questo vale sia per nvidia che amd.

Sulla parte RT invece ci sarà da vedere...

floop
05-07-2021, 12:23
i drivers sono l'ultimo problema. I giochi sono realizzati, dal primo all'ultimo pezzo di codice in collaborazione con chi produce schede video. Intel rischia di farsi fuori da sola come successo con Microsoft e i telefonini. Puoi montare il miglior hardware al mondo ma se non funziona correttamente come la concorrenza allora sei spacciato.

eh si questo intendo, con le dx12 non era più facile accedere al hw e quindi poterlo sfruttare???


dici tu se non daranno supporto alle case, se li sognano l evednite?
"non possono emulare amd o nvidia?"

ninja750
05-07-2021, 12:44
https://cdn.videocardz.com/1/2021/06/Intel-Xe-Update-1200x675.jpg

siamo al sampling delle DG2

Dattofree
05-07-2021, 12:58
eh si questo intendo, con le dx12 non era più facile accedere al hw e quindi poterlo sfruttare???


dici tu se non daranno supporto alle case, se li sognano l evednite?
"non possono emulare amd o nvidia?"

Secondo me l'unica cosa che possono fare è sfruttare al massimo le loro attuali collaborazioni con le software house. Ma già da ora sia Nvidia che Amd ci penseranno mille volte prima di fare ogni cosa. Più Nvidia sinceramente perchè Amd vive di prodotti propri sia cpu che gpu. Per il discorso software prova solo ad immaginare se una scheda appena messa in commercio non dovesse supportare una qualsiasi caratteristica di giochi su larghissima scala come Fortnite e compagnia bella. Nessun giocatore tenterebbe il salto nel buio a parità di prezzo. Anzi verrebbero derisi e paraculati. Oltre al fatto che Intel dovrebbe rendere le sue schede perfettamente compatibili con le piattaforme di ogni altro produttore. Ora immagina una scheda video Intel in un sistema Amd... mi tremano i polsi :D :D

ninja750
05-07-2021, 14:58
Secondo me l'unica cosa che possono fare è sfruttare al massimo le loro attuali collaborazioni con le software house. Ma già da ora sia Nvidia che Amd ci penseranno mille volte prima di fare ogni cosa. Più Nvidia sinceramente perchè Amd vive di prodotti propri sia cpu che gpu. Per il discorso software prova solo ad immaginare se una scheda appena messa in commercio non dovesse supportare una qualsiasi caratteristica di giochi su larghissima scala come Fortnite e compagnia bella. Nessun giocatore tenterebbe il salto nel buio a parità di prezzo. Anzi verrebbero derisi e paraculati. Oltre al fatto che Intel dovrebbe rendere le sue schede perfettamente compatibili con le piattaforme di ogni altro produttore. Ora immagina una scheda video Intel in un sistema Amd... mi tremano i polsi :D :D

pensa alla quantità di grafiche intel integrate attualmente nei portatili, sono milioni e milioni e loro sicuramente non sono sprovveduti

se il tutto e non vedo perchè no girerà in DX compliant non ci dovrebbero essere problemi

Dattofree
05-07-2021, 15:09
pensa alla quantità di grafiche intel integrate attualmente nei portatili, sono milioni e milioni e loro sicuramente non sono sprovveduti

se il tutto e non vedo perchè no girerà in DX compliant non ci dovrebbero essere problemi

Si ma ti sei dimenticato di scrivere su quali piattaforme girano le integrate. ( Senza valutare l'immensa differenza tra una video integrata e una scheda video esterna. Ma questa è una storia che vedremo presto.)

Ubro92
16-07-2021, 01:06
Nuovo driver intel con il suo bel paginone di changelog mensile :sofico:

https://videocardz.com/driver/intel-graphics-driver-30-0-100-9684

ninja750
16-07-2021, 11:33
se vogliono acquisire glofo sappiamo già di più sul processo produttivo, ma credo per le prossime non queste

Ubro92
17-07-2021, 09:19
se vogliono acquisire glofo sappiamo già di più sul processo produttivo, ma credo per le prossime non queste

Bisogna vedere, sapevo che GF per una questione di costi aveva problemi a fare la transizione a 7nm, probabile che per questo abbia valutato un'acquisizione da parte di Intel.

Ma concordo che se anche ci fosse un acquisizione, nel mentre che finalizzano il nuovo pp se ne parla alla prossima gen.

floop
17-07-2021, 11:22
Bisogna vedere, sapevo che GF per una questione di costi aveva problemi a fare la transizione a 7nm, probabile che per questo abbia valutato un'acquisizione da parte di Intel.

Ma concordo che se anche ci fosse un acquisizione, nel mentre che finalizzano il nuovo pp se ne parla alla prossima gen.

quindi le vediamo nel 2022?

Ubro92
17-07-2021, 11:51
quindi le vediamo nel 2022?

Le intel sono previste a fine 2021 almeno per i modelli top, per poi seguire quelli di fascia medio-bassa nel corso del 2022.
Però sulla disponibilità si alza le mani...

fraussantin
21-08-2021, 10:40
Iscritto !

Speriamo che Intel dia una sbloccata al mercato della fascia media e bassa xchè ce n'è davvero bisogno con le 3060 a 700 euro
Le GPU usciranno tra fine 2021 e Q1 2022 ma c'è il 3d per parlarne...

https://www.hwupgrade.it/forum/showthread.php?t=2933029


Intel utilizzerà i 7 e 6nm

Inviato dal mio Redmi Note 4 utilizzando Tapatalk


ti quoto di qua per non continuare in ot , se veramente escono con una like 3070ti a fine anno non sarebbe niente male come primo colpo.

Per 6-7nm intendi TSMC?
Perché sarebbe un grosso problema per le disponibilità , quel pp è praticamente ingolfato da sempre.

mikael84
21-08-2021, 12:31
Iscritto !

Speriamo che Intel dia una sbloccata al mercato della fascia media e bassa xchè ce n'è davvero bisogno con le 3060 a 700 euro






ti quoto di qua per non continuare in ot , se veramente escono con una like 3070ti a fine anno non sarebbe niente male come primo colpo.

Per 6-7nm intendi TSMC?
Perché sarebbe un grosso problema per le disponibilità , quel pp è praticamente ingolfato da sempre.

Ti ho risposto di la, cmq saranno i 6nm EUV di TSMC.
Intel cmq per ora punta alla 3070ti/6800, però da progetto può fare molto di più.

Il chip finale prevede un'architettura a 4 layer da 4096 shader core (16000 totali).
Per il gaming ne verrà utilizzata 1 da 4096 shader.
Quindi per ora, coprirà la fascia medio alta, per poi riposizionarsi sulla entry level.

Ecco però che Intel può rispondere aggiungendo 1 altro layer e raggiungere i 6144/8196 shader, superando di gran lunga la 3090.

Una volta debuttati i 5nm di Nvidia e AMD, quel

fraussantin
21-08-2021, 15:05
Ti ho risposto di la, cmq saranno i 6nm EUV di TSMC.

Intel cmq per ora punta alla 3070ti/6800, però da progetto può fare molto di più.



Il chip finale prevede un'architettura a 4 layer da 4096 shader core (16000 totali).

Per il gaming ne verrà utilizzata 1 da 4096 shader.

Quindi per ora, coprirà la fascia medio alta, per poi riposizionarsi sulla entry level.



Ecco però che Intel può rispondere aggiungendo 1 altro layer e raggiungere i 6144/8196 shader, superando di gran lunga la 3090.



Una volta debuttati i 5nm di Nvidia e AMD, quel

Il 6 nm UV se non sbaglio lo ha puntato anche Sony per aumentare la produzione di ps5.

Ora come ora è il miglior momento per entrare , qualunque cosa decente faccia sparirebbe subito dagli scaffali e potrebbe guadagnare quote di mercato e farsi prendere in considerazione dalle case produttrici.

Se poi sono anche valide ...


PS per dire spariscono le 2060 resuscitate a prezzi ridicoli ...

mikael84
21-08-2021, 15:45
Il 6 nm UV se non sbaglio lo ha puntato anche Sony per aumentare la produzione di ps5.

Ora come ora è il miglior momento per entrare , qualunque cosa decente faccia sparirebbe subito dagli scaffali e potrebbe guadagnare quote di mercato e farsi prendere in considerazione dalle case produttrici.

Se poi sono anche valide ...


PS per dire spariscono le 2060 resuscitate a prezzi ridicoli ...

Si, anche AMD occuperà vari slot. I 6nm EUV a 5 strati (che sono i 7nm euv con uno strato in più) permettono rese migliori, clock leggermente migliori e più facilità di produzione. Per la play che ha un boost dinamico sicuramente meglio.
Inoltre navi 33 pare sia prodotto direttamente a 6nm, ma non solo anche la cache degli MCM sarà a 6nm.

Intel per ora pare promettere prestazioni da 3070ti/6800, ray tracing, simil nvidia, 16gb di ram, DLSS con tensor specifici.
Se data per 450/500$, ma più reperibile, potrebbe anche essere allettante.

ninja750
21-08-2021, 18:44
sembra proprio tutto slittato al 2022

non è detto che i primi engeneering sample arrivino già alla fine di quest'anno

fraussantin
21-08-2021, 19:24
sembra proprio tutto slittato al 2022



non è detto che i primi engeneering sample arrivino già alla fine di quest'annoNel caso dovessero anche arrivare tardi e quindi vicini alle next gen andrebbero cmq a intoppare sulla fascia media di AMD e Nvidia . Quindi sarebbero cmq importanti per il mercato.

Ubro92
22-08-2021, 10:26
Bene o male anche nei rumors passati si parlava di fine 2021 e Q1 2022.
Poi è da vedere le fasce, di solito i chip top arrivano prima e poi seguono quelli inferiori.

Credo che con l'uscita di AlderLake sicuramente mostreranno qualcosa anche sul versante GPU per alzare l'hype, purtroppo ci tocca attendere.

Personalmente pià che per una questione di prestazioni sono fiducioso in prezzi abbordabili, soprattutto dopo l'ultimo anno...

mikael84
22-08-2021, 12:38
Nel caso dovessero anche arrivare tardi e quindi vicini alle next gen andrebbero cmq a intoppare sulla fascia media di AMD e Nvidia . Quindi sarebbero cmq importanti per il mercato.

Andrebbe a coprire la ormai dimenticata fascia bassa.

Ubro92
22-08-2021, 12:50
Andrebbe a coprire la ormai dimenticata fascia bassa.

Ancora non hanno tirato fuori le x50 e le RX 6500/6300...
Hanno l'interesse praticamente pari a 0 :fagiano:

mikael84
22-08-2021, 13:01
Ancora non hanno tirato fuori le x50 e le RX 6500/6300...
Hanno l'interesse praticamente pari a 0 :fagiano:

Infatti l'hanno completamente tralasciata sul desk. Per quello Intel potrebbe occupare proprio quella fascia.

Ale55andr0
22-08-2021, 15:27
Si, anche AMD occuperà vari slot. I 6nm EUV a 5 strati (che sono i 7nm euv con uno strato in più) permettono rese migliori, clock leggermente migliori e più facilità di produzione. Per la play che ha un boost dinamico sicuramente meglio.
Inoltre navi 33 pare sia prodotto direttamente a 6nm, ma non solo anche la cache degli MCM sarà a 6nm.

Intel per ora pare promettere prestazioni da 3070ti/6800, ray tracing, simil nvidia, 16gb di ram, DLSS con tensor specifici.
Se data per 450/500$, ma più reperibile, potrebbe anche essere allettante.

per me già solo perchè gpu marchiata intel può restare ad amuffire

kiwivda
22-08-2021, 15:44
Io non vedo l'ora di metterci le mani. Sono proprio curioso di testare questa nuova architettura.

mikael84
22-08-2021, 15:45
per me già solo perchè gpu marchiata intel può restare ad amuffire

Non ho pregiudizi, oltre ai numeri bisognerà vederle sul campo, almeno a livello driver. Sembrano cmq ben fornite, RT completo, tensor.

Ubro92
22-08-2021, 17:46
Io ho provato le ultime XE integrate sui notebook e francamente mi sembrano decisamente valide.
Anche i driver a ogni release hanno changelog belli corposi, quindi rimango positivo a riguardo, ma anche le vecchie iris erano molto valide solo che le adottavano si e no un paio di cpu...

ninja750
23-08-2021, 10:30
quello che mi sembra strano è lo sviluppo in proprio di un supersampling simile a quello nvidia ma rilasciato free come quello di AMD

va da se che se due delle tre soluzioni sono free ed una sola proprietaria e chiusa..

fraussantin
23-08-2021, 11:24
https://videocardz.com/newz/intel-xe-hpc-ponte-vecchio-gpu-features-up-to-128-xe-cores-and-128-ray-tracing-units

Intanto sta preparando anche roba pro.


Dove Nvidia non ha concorrenza

mikael84
23-08-2021, 12:42
quello che mi sembra strano è lo sviluppo in proprio di un supersampling simile a quello nvidia ma rilasciato free come quello di AMD

va da se che se due delle tre soluzioni sono free ed una sola proprietaria e chiusa..

Probabile, se non ci sono errori sui grafici, le soluzioni gaming, hanno solo le fp16 native, mentre le compute dei veri tensor.

https://videocardz.com/newz/intel-xe-hpc-ponte-vecchio-gpu-features-up-to-128-xe-cores-and-128-ray-tracing-units

Intanto sta preparando anche roba pro.


Dove Nvidia non ha concorrenza

Nasce come pro, il design è praticamente molto simile ad nvidia.
Attualmente hanno scritto 45TF, in quanto i 4 slice contengono 4096 shader, totali 16392.

Per il gaming, ne hanno uno ottimizzato da 4096 shader a clock decisamente più alti.
Consumi permettendo, anche se è probabile alla seconda gen, inseriranno il doppio slice, per andare a 8196 shader.

rikyxxx
25-08-2021, 18:17
https://videocardz.com/newz/intel-xe-hpc-ponte-vecchio-gpu-features-up-to-128-xe-cores-and-128-ray-tracing-units

Intanto sta preparando anche roba pro.

Dove Nvidia non ha concorrenza

Secondo me l'obiettivo primario è sempre stato offrire soluzioni complete CPU+GPU per i data-center AI, tutto il resto (gaming, mining, ecc...) se viene bene sennò pace.

D'altra parte è esattamente quello che sta tentando nVidia, partendo "dal lato opposto": https://nvidianews.nvidia.com/news/nvidia-announces-cpu-for-giant-ai-and-high-performance-computing-workloads

terranux
31-08-2021, 13:31
ragazzi se sperate che intel sia una schifezza vi fate del male a voi stessi. più concorrenza ci sarà e meno costeranno

mikael84
11-09-2021, 15:42
https://videocardz.com/newz/leaked-slide-shows-intel-dg2-arc-alchemist-gpus-compete-with-geforce-rtx-3070-and-radeon-rx-6700xt

https://cdn.videocardz.com/1/2021/09/Intel-DG2-Lineup.jpg

ninja750
12-09-2021, 20:36
ingegnoso :O con un prodotto coprono tre fasce avversarie :O non mi stupisce più di tanto, è lo stesso approccio che hanno usato da secoli anche per le CPU

a quel wattaggio non ci credo manco morto :fagiano:

VanCleef
13-09-2021, 08:05
A me soddisfano i nomi delle fasce :sofico:
Enthusiast 400+ :D

Se fosse vero, con le varianti da 75W ne vendono a carrettate...

fraussantin
13-09-2021, 08:14
ingegnoso :O con un prodotto coprono tre fasce avversarie :O non mi stupisce più di tanto, è lo stesso approccio che hanno usato da secoli anche per le CPU



a quel wattaggio non ci credo manco morto :fagiano:Sono 6nm in teoria è possibile.

Io non credo ai dollari xD

Più che altro Intel non ha una rete diretta di vendita al pubblico e questa è la cosa peggiore.

Se dovranno passare per le mani degli avvoltoi arriveranno al doppio dell'msrp in un baleno

mikael84
13-09-2021, 13:08
ingegnoso :O con un prodotto coprono tre fasce avversarie :O non mi stupisce più di tanto, è lo stesso approccio che hanno usato da secoli anche per le CPU

a quel wattaggio non ci credo manco morto :fagiano:

Se non riescono a riprodurre una 3070 con quei watt a 6nm, hanno fallito.

ninja750
13-09-2021, 14:57
Più che altro Intel non ha una rete diretta di vendita al pubblico e questa è la cosa peggiore.

Se dovranno passare per le mani degli avvoltoi arriveranno al doppio dell'msrp in un baleno

hanno già detto che passeranno per il mercato retail infatti asus è stato uno dei primi produttori confermati

si dovrebbero trovare negli stessi shop dove oggi compri le concorrenti

Se non riescono a riprodurre una 3070 con quei watt a 6nm, hanno fallito.

il fallimento è dato dal prezzo/perf, queste se ben prezzate potranno dire la loro eccome

il consumo è un corollario che a seconda di chi guarda può contare o meno, la 3080 non è un fallimento in sé solo perchè consuma 60/70w in più della 6800XT

sarebbe una parentesi tipo vega64

Ubro92
13-09-2021, 15:21
Considerando che come competitor nella fascia mid e low hanno una 2060 12GB a 12nm, direi che lato performance/watt stanno già messi decisamente meglio XD

Ma francamente l'unica cosa che conta sono i prezzi, e come scalano i chip in game.

fraussantin
13-09-2021, 15:32
hanno già detto che passeranno per il mercato retail infatti asus è stato uno dei primi produttori confermati



si dovrebbero trovare negli stessi shop dove oggi compri le concorrenti

4

Dr4ko che le farà un 50% in più , o Am4zon che avrà un drop ogni 2 settimane e spariranno in -5 secondi
Non sono per niente belle prospettive

Ubro92
13-09-2021, 15:50
Dr4ko che le farà un 50% in più , o Am4zon che avrà un drop ogni 2 settimane e spariranno in -5 secondi
Non sono per niente belle prospettive

Ho visto che di recente hanno messo un captcha quando apri alcuni articoli, forse è un modo sperimentale per contrastare i bot.

Ma vedremo nei prossimi mesi che succede, per ora i presupposti sono pessimi.
Si spera che con i 6nm e l'assenza di chipponi, ci sia una disponibilità adeguata.

mikael84
13-09-2021, 16:00
il fallimento è dato dal prezzo/perf, queste se ben prezzate potranno dire la loro eccome

il consumo è un corollario che a seconda di chi guarda può contare o meno, la 3080 non è un fallimento in sé solo perchè consuma 60/70w in più della 6800XT

sarebbe una parentesi tipo vega64

Il prezzo se allineato alla 3070 non è male, considerando che avranno pure 16gb di ram, ed un RT pare simile ad nvidia.
Inoltre bisognerà vedere realmente le perf, e la tara. A 230watt parlavano di 2,2ghz, ben 18TF. Quindi o l'IPC fa schifo, o sono piuttosto valide.:)

ninja750
20-09-2021, 15:54
Intel ha scelto TSMC N6 a causa della capacità insufficiente dei propri nodi

Raja ha risposto a una serie di domande in merito alla prossima architettura Xe-HPG, che ora debutterà nel primo trimestre del 2022 sotto la serie Arc Alchemist. A Raja è stato chiesto perché Intel ha deciso di utilizzare la tecnologia di processo TSMC N6 invece del nodo "7" di Intel. Secondo la sua risposta, la capacità di produzione di Intel semplicemente non era pronta per la produzione di massa di GPU discrete. Intel chiaramente non vuole che le sue GPU discrete competano con le serie di CPU, come Alder Lake, per la capacità.

Era necessario prima determinare la capacità di produzione del processo che può essere assunta all'inizio della progettazione e il processo avanzato (di Intel) non aveva ancora una capacità sufficiente.
— Raja Koduri

Intel non ha ancora determinato se il successore di Alchemist farà affidamento su una fonderia propria o esterna. Tuttavia, l'azienda potrebbe voler passare a nodi più avanzati una volta lanciate le serie NVIDIA Lovelace e AMD RDNA3 utilizzando il processo TSMC N5.

La tecnologia di supersampling di Intel (XeSS) sarà compatibile con l'architettura Xe-LP

Senza troppa sorpresa, Raja ha ribadito quanto già annunciato da Intel. Le architetture esistenti basate su Xe come Xe-LP supporteranno la tecnologia XeSS, la versione Intel della super risoluzione basata su algoritmi di intelligenza artificiale. È probabile che la versione Xe-LP utilizzi l'istruzione DP4a, considerata retrocompatibile con tutte le nuove GPU. La versione DP4a di XeSS non è efficiente quanto quella basata su XMX, ma dovrebbe comunque essere un'interessante aggiunta a queste schede grafiche a basso consumo.

A proposito, per quanto riguarda la tecnica del supercampionamento X e SS, si diceva che fosse “retrocompatibile”. In altre parole, l'Iris Xe DG1 che è già stato rilasciato può utilizzare anche XeSS. È stato anche detto che avrebbe funzionato su GPU basate sull'undicesima generazione, incluso Tiger Lake.
— ASCII citando Raja Koduri

Xe-Link di Ponte Vecchio non sarà utilizzato dalla serie HPG

Un'altra curiosità interessante è che Raja non ha confermato esplicitamente se la serie Xe-HPG supporterà multi-GPU, come NVIDIA SLI e AMD Crossfire. Entrambe le tecnologie sono praticamente morte a questo punto, non solo a causa delle prestazioni scadenti, ma anche per il fatto che più GPU dello stesso fornitore sono costose e difficili da ottenere. Intel chiaramente non ha intenzione di competere nel declino del mercato multi-GPU.

Schede personalizzate e workstation serie Arc in programma?

La parte di gran lunga più interessante dell'intervista è la domanda sul lancio di schede personalizzate basate su GPU Arc Alchemist. Come rivelato in precedenza attraverso le perdite, Intel sta già offrendo il suo progetto di riferimento ai partner di bordo. Intel aveva effettivamente confermato questa perdita durante il suo spettacolo di droni. Lo stesso design, mostrato per la prima volta da Moore's Law is Dead, dovrebbe ora essere offerto ai partner di bordo che possono o meno usarlo per le loro carte, in alternativa, potrebbero volerlo adottare per le proprie versioni semi-custom .

I partner e io pensiamo che ci sarà una differenziazione dell'ODM e questo porterà all'interesse finale del cliente
— Raja Koduri

Alla domanda sulla possibilità che Intel lanci le schede workstation Intel Arc, un equivalente di NVIDIA (Quadro) e AMD Radeon Pro, Koduri ha solo affermato che Alchemist può supportare il mercato delle workstation e applicazioni di fascia alta come 3DX Max. Sebbene ciò non confermi in definitiva che Intel lancerà la propria serie "Arc Pro", non c'è davvero alcun motivo per non lanciarne alcuna, a meno che Intel non dedichi tutta la sua capacità TSMC ai giocatori.

https://videocardz.com/newz/intel-arc-alchemist-xe-hpg-custom-design-graphics-cards-already-planned

floop
20-09-2021, 16:28
allora fine anno vedremo le prime review?

ninja750
27-09-2021, 08:48
https://www.hwupgrade.it/news/skvideo/nomi-configurazioni-e-prestazioni-nuove-voci-sulle-gpu-intel-arc-alchemist_101020.html

Anche se mancano ancora molti mesi al debutto, circolano nuove indiscrezioni sulla serie di schede video desktop Arc "Alchemist" che segnerà il ritorno di Intel nel mondo delle GPU ad alte prestazioni destinate al mercato gaming. Le voci di corridoio diffuse dallo youtuber Moore Law is Dead (MLID) si concentrano sulla lineup e le sue prestazioni, confermando buona parte dei rumor circolati nelle ultime settimane.

Intel dovrebbe presentare almeno tre modelli desktop caratterizzati da 512, 384 e 128 Execution Unit (EU). Il modello top di gamma da 512 EU (otto Render Slice con 4 Xe-Core ciascuno portano ad avere un totale di 512 Vector/Matrix Engine dato che ogni Xe-Core ne contiene 16) avrebbe prestazioni tra la GeForce RTX 3060 Ti e la RTX 3070 Ti, in modo simile a quanto indicato da una precedente slide. La vicinanza a una o l'altra scheda NVIDIA dipenderà ovviamente dai driver e dai giochi, ma per ora sembra che la RTX 3080 e schede superiori siano fuori portata.

Intel affiancherà alla GPU Alchemist più potente 16 GB di memoria GDDR6 a 16 Gbps su bus a 256 bit, anche se non è da escludere che Intel possa presentare una variante con chip a 18 Gbps. Per quanto riguarda la GPU, in rete si parla di un'area di 396 mm2 e una frequenza operativa tra 2,2 e 2,5 GHz. Quanto al TDP, la scheda dovrebbe stare sotto i 235W e presentarsi sul mercato con due connettori di alimentazione, uno a 8 pin e uno a 6 pin.

La scheda con GPU "castrata" a 384 EU dovrebbe essere associata a 8 GB di memoria GDDR6 su bus a 192/256 bit (non è ancora chiaro). Stando a MLID, Intel avrebbe anche testato una variante con 448 EU, ma al momento tale configurazione sembrerebbe essere stata scartata oppure sarà usata nel settore notebook, dove dovremmo vedere più varietà nelle configurazioni. Questo modello di scheda video Intel Arc offrire prestazioni tra la RTX 3060 e la RTX 3060 Ti.

Leggi anche: Intel Arc Alchemist, con Xe-Core e XeSS è sfida a Nvidia e AMD sulle GPU gaming

Infine, Intel dovrebbe introdurre una seconda GPU destinata al mercato entry level, equipaggiata nella sua massima espressione con 128 EU. Non si tratterà di una scheda video gaming nel vero senso della parola visto che dovrebbe avere prestazioni tra la GTX 1650 e la GTX 1650 SUPER (ma con supporto hardware al ray tracing, seppur di dubbia utilità). La GPU dovrebbe operare anche in questo caso tra 2,2 e 2,5 GHz ed essere affiancata da 8/4 GB di memoria GDDR6 su bus a 64 bit.

Parallelamente, il leaker @momomo_us ha intercettato alcuni documenti in cui Intel sembra svelare la nomenclatura delle sue future schede video desktop. Sembra che le soluzioni Alchemist arriveranno sul mercato con il nome commerciale "Arc aXXX", dove la "a" starà per Alchemist e le "X" per una cifra numerica progressiva che dovrebbe trasmettere il livello prestazionale di ogni modello. Ne consegue che, qualora Intel dovesse continuare a seguire questo schema, le future GPU Battlemage, Celestial e Druid dovrebbero chiamarsi rispettivamente Arc bXXX, Arc cXXX e Arc dXXX.

Ale55andr0
27-09-2021, 15:08
MLID è lo stesso youtuber che ha sparato fregnacce da antologia su nvidia e amd....
...cmq per me una gpu intel ha lo stesso appeal di una slinguazzata con la Bindi :asd:

fraussantin
03-10-2021, 20:40
https://i.postimg.cc/R6txs8zN/Arc-Alchemist-PB-scaled.jpg (https://postimg.cc/R6txs8zN)

https://i.postimg.cc/McN8YwNC/Intel-Arc-Alchemist-PU-scaled.jpg (https://postimg.cc/McN8YwNC)

https://i.postimg.cc/jnr0GXsv/Intel-Arc-Alchemist-reference-design-F.jpg (https://postimg.cc/jnr0GXsv)

https://i.postimg.cc/d7LYd3HR/Intel-Arc-Alchemist-reference-design-PF.jpg (https://postimg.cc/d7LYd3HR)

https://i.postimg.cc/64LJwvqK/Intel-Arc-Alchemist-reference-design-PFB.jpg (https://postimg.cc/64LJwvqK)

https://i.postimg.cc/DmqK1tgN/Intel-Arc-Alchemist-reference-design-U.jpg (https://postimg.cc/DmqK1tgN)

Bellina sembra una sapphire :asd:

Quel blu ( Intel) un po' mi stona. Spero non sia retroilluminato.


PS connettori 8+6 confermano fascia mid intorno ai 200w

mikael84
04-10-2021, 01:20
https://www.hwupgrade.it/news/skvideo/nomi-configurazioni-e-prestazioni-nuove-voci-sulle-gpu-intel-arc-alchemist_101020.html

Anche se mancano ancora molti mesi al debutto, circolano nuove indiscrezioni sulla serie di schede video desktop Arc "Alchemist" che segnerà il ritorno di Intel nel mondo delle GPU ad alte prestazioni destinate al mercato gaming. Le voci di corridoio diffuse dallo youtuber Moore Law is Dead (MLID) si concentrano sulla lineup e le sue prestazioni, confermando buona parte dei rumor circolati nelle ultime settimane.

Intel dovrebbe presentare almeno tre modelli desktop caratterizzati da 512, 384 e 128 Execution Unit (EU). Il modello top di gamma da 512 EU (otto Render Slice con 4 Xe-Core ciascuno portano ad avere un totale di 512 Vector/Matrix Engine dato che ogni Xe-Core ne contiene 16) avrebbe prestazioni tra la GeForce RTX 3060 Ti e la RTX 3070 Ti, in modo simile a quanto indicato da una precedente slide. La vicinanza a una o l'altra scheda NVIDIA dipenderà ovviamente dai driver e dai giochi, ma per ora sembra che la RTX 3080 e schede superiori siano fuori portata.

Intel affiancherà alla GPU Alchemist più potente 16 GB di memoria GDDR6 a 16 Gbps su bus a 256 bit, anche se non è da escludere che Intel possa presentare una variante con chip a 18 Gbps. Per quanto riguarda la GPU, in rete si parla di un'area di 396 mm2 e una frequenza operativa tra 2,2 e 2,5 GHz. Quanto al TDP, la scheda dovrebbe stare sotto i 235W e presentarsi sul mercato con due connettori di alimentazione, uno a 8 pin e uno a 6 pin.

La scheda con GPU "castrata" a 384 EU dovrebbe essere associata a 8 GB di memoria GDDR6 su bus a 192/256 bit (non è ancora chiaro). Stando a MLID, Intel avrebbe anche testato una variante con 448 EU, ma al momento tale configurazione sembrerebbe essere stata scartata oppure sarà usata nel settore notebook, dove dovremmo vedere più varietà nelle configurazioni. Questo modello di scheda video Intel Arc offrire prestazioni tra la RTX 3060 e la RTX 3060 Ti.

Leggi anche: Intel Arc Alchemist, con Xe-Core e XeSS è sfida a Nvidia e AMD sulle GPU gaming

Infine, Intel dovrebbe introdurre una seconda GPU destinata al mercato entry level, equipaggiata nella sua massima espressione con 128 EU. Non si tratterà di una scheda video gaming nel vero senso della parola visto che dovrebbe avere prestazioni tra la GTX 1650 e la GTX 1650 SUPER (ma con supporto hardware al ray tracing, seppur di dubbia utilità). La GPU dovrebbe operare anche in questo caso tra 2,2 e 2,5 GHz ed essere affiancata da 8/4 GB di memoria GDDR6 su bus a 64 bit.


Sarà interessante capire l'IPC, ed il clock, considerando il 6nm EUV di TSMC.
A 2,5 in flops raggiungerebbe la 3080 e la 6800xt.
Se l'obbiettivo è raggiungere la 3070 (14-15g.flops), con un'architettura simil nvidia non ci vorrebbero neppure clock assurdi.
La 3070 levando le INT ha un picco medio di 3700cc@1900, l'intel 4096@2,2-2,5.

La 3060ti ha un picco flops di 3076cc, gli stessi della 384 EU, ma con 3-600mhz in meno.

ninja750
04-10-2021, 08:50
a me sembra troppo sottile per essere la flagship

fraussantin
04-10-2021, 09:24
a me sembra troppo sottile per essere la flagshipOddio una 3070 a 6nm ci sta

ninja750
04-10-2021, 09:31
Oddio una 3070 a 6nm ci sta

dici che AL PRIMO TENTATIVO questi qui hanno di fatto pareggiato e superato i due colossi che da anni si dividono la torta gaming PC?

tutto fuorchè sprovveduti ma sarebbe davvero un risultato monstre. continuo a supporre che da qualche parte ci sarà un contrappeso inaspettato

Ubro92
04-10-2021, 09:54
dici che AL PRIMO TENTATIVO questi qui hanno di fatto pareggiato e superato i due colossi che da anni si dividono la torta gaming PC?



tutto fuorchè sprovveduti ma sarebbe davvero un risultato monstre. continuo a supporre che da qualche parte ci sarà un contrappeso inaspettatoDopo un anno e mezzo di ritardo direi di sì xD


Inviato dal mio M2012K11AG utilizzando Tapatalk

FroZen
04-10-2021, 10:04
Senza contare la variabile driver

fraussantin
04-10-2021, 10:23
Senza contare la variabile driverIl fatto che sia potente come una 3070 non vuol dire che abbia le stesse prestazioni nei giochi . É quasi certo che con molti giochi sarà un po' limitata.
L'importante é che sia stabile .

FroZen
04-10-2021, 10:29
Quel blu ( Intel) un po' mi stona. Spero non sia retroilluminato.


a me piace :fagiano:

mikael84
04-10-2021, 12:52
dici che AL PRIMO TENTATIVO questi qui hanno di fatto pareggiato e superato i due colossi che da anni si dividono la torta gaming PC?

tutto fuorchè sprovveduti ma sarebbe davvero un risultato monstre. continuo a supporre che da qualche parte ci sarà un contrappeso inaspettato

Il chip c'è, questa è solo una piccola versione. Se pensi il monster HPC,
Alla fine a soli 2,2 arriverebbero a 18TF, quasi quanto la 3080 e la 6800xt (20,5).
Dev'essere davvero osceno non riuscire a prendere schede con 13-14tf.
Il chip finale ha pure 128 rop's, roba che solo AMD integra con le 6900/6800xt.

Internamente è molto simile ad nvidia, FP+INT.

Bisogna vederle sul campo ora, spero che esca almeno qualche sintetico.

kiwivda
13-10-2021, 13:43
Intel confirms no mining limiter for Arc Alchemist cards, can't guarantee availability.

Link fonte (https://www.techspot.com/news/91702-intel-confirms-no-mining-limiter-arc-alchemist-cards.html).

E per forza, devono vendere, non possono permettersi di fare gli schizzinosi.
Comunque notizia non buona, almeno per i gamer, che vista la situazione avrebbero sicuramente potuto trovare respiro in una fascia bassa che al momento non esiste più.

"Ci sono ancora molte cose che non sappiamo su Alchemist, la prima delle prossime schede grafiche Arc di Intel. Una delle tante domande che i giocatori si sono posti è se l'azienda seguirà l'esempio di Nvidia e includerà qualche forma di limitatore di mining, rendendo così le GPU meno attraenti per i minatori di criptovalute. E ora sappiamo la risposta: no, non lo farà."

mikael84
14-10-2021, 01:10
Intel confirms no mining limiter for Arc Alchemist cards, can't guarantee availability.

Link fonte (https://www.techspot.com/news/91702-intel-confirms-no-mining-limiter-arc-alchemist-cards.html).

E per forza, devono vendere, non possono permettersi di fare gli schizzinosi.
Comunque notizia non buona, almeno per i gamer, che vista la situazione avrebbero sicuramente potuto trovare respiro in una fascia bassa che al momento non esiste più.

"Ci sono ancora molte cose che non sappiamo su Alchemist, la prima delle prossime schede grafiche Arc di Intel. Una delle tante domande che i giocatori si sono posti è se l'azienda seguirà l'esempio di Nvidia e includerà qualche forma di limitatore di mining, rendendo così le GPU meno attraenti per i minatori di criptovalute. E ora sappiamo la risposta: no, non lo farà."

Si parla di perf da 3070/ti nel q2 2022, a ridosso dei 5nm. Nascono morte, a meno di non ritrovarci schede AMD ed Nvidia con la x60 sui 1000 perenne.:rolleyes: :)

ninja750
27-10-2021, 17:06
prezzi semiufficiosi calcolati in base a un prize scavenger hunt, piuttosto indicativi se vera la news

825$ la full 512sp (3070 like?)
650$ la mid 384sp

non si sa se esentasse o incluse

fossero uguali allo street price specialmente sulla full potrebbero venderne, anche dopo la conferma che non avranno blocchi in mining e al fatto dei 16gb come amd

per chi si aspettava il regalo di natale beh :stordita:

Ubro92
27-10-2021, 17:32
Si parla di perf da 3070/ti nel q2 2022, a ridosso dei 5nm. Nascono morte, a meno di non ritrovarci schede AMD ed Nvidia con la x60 sui 1000 perenne.:rolleyes: :)

Come performance assolute non sono nulla di eccezionale in base alle roadmap, ma considerando gli ultimi due anni se fossero offerte a prezzi decenti e con disponibilità adeguate già sarebbe qualcosa...
Se manco i prezzi sono decenti allora si che sono morte a ridosso di tutto...

mikael84
27-10-2021, 20:34
prezzi semiufficiosi calcolati in base a un prize scavenger hunt, piuttosto indicativi se vera la news

825$ la full 512sp (3070 like?)
650$ la mid 384sp

non si sa se esentasse o incluse

fossero uguali allo street price specialmente sulla full potrebbero venderne, anche dopo la conferma che non avranno blocchi in mining e al fatto dei 16gb come amd

per chi si aspettava il regalo di natale beh :stordita:

Per le perf. dipenderà molto dal clock e dall'IPC. Clockando a 2,5ghz, la 512 EU, avrebbe prestazioni teoriche in flops da 3080/6800xt. Anche le rop's saranno 128, contro le 96 della 3080.

Viceversa la 384 EU scenderebbe a 15TF e 96 rop's (3070).

La 512EU per avere flops teorici simil x70 dovrebbe clockare a soli 1,8, oppure essere un aborto.

Prezzi, anche nel migliore dei casi, fuori da ogni logica, nei pressi dei 5nm di nvidia/AMD.

Come performance assolute non sono nulla di eccezionale in base alle roadmap, ma considerando gli ultimi due anni se fossero offerte a prezzi decenti e con disponibilità adeguate già sarebbe qualcosa...
Se manco i prezzi sono decenti allora si che sono morte a ridosso di tutto...

A 2,5 la 512EU avrebbe un ratio teorico da 3080, quindi potrebbe anche stargli sul collo o a cavallo tra x80/x70ti, però attualmente, stai lanciando la gen.2020 nel 2022.
Da segnalare che i driver potrebbero essere molto beta inizialmente.

Di interessante potrebbe essere solo un'eventuale disponibilità a prezzi MSRP, visto il momento, soprattutto se lovelace farà la fine di Ampere.

ninja750
28-10-2021, 12:07
Per le perf. dipenderà molto dal clock e dall'IPC

tralasci un piccolo dettaglio: i driver e l'ecosistema che ci girerà intorno

mikael84
28-10-2021, 12:24
tralasci un piccolo dettaglio: i driver e l'ecosistema che ci girerà intorno

Certo, infatti l'ho scritto sotto, sul post di Ubro.;)
Per il momento non resta che valutare le performance teoriche, tutto il resto è da vedere.

Ubro92
28-10-2021, 15:32
Io se devo essere franco mi interessano principalmente i prezzi, per le mie esigenze il target di una 3060ti mi andrebbe più che bene ma non ho minimamente voglia di investire 7-800€ per dei chip mid, che tra un anno faranno un ulteriore scalo verso il basso...

mikael84
28-10-2021, 16:05
Io se devo essere franco mi interessano principalmente i prezzi, per le mie esigenze il target di una 3060ti mi andrebbe più che bene ma non ho minimamente voglia di investire 7-800€ per dei chip mid, che tra un anno faranno un ulteriore scalo verso il basso...

Le premesse ci sono verso quel targer, la 3060ti ha 3070 cuda medi, ed a 1900 fa circa 11,6TF.
Già la 384 EU non dovrebbe avere problemi.
Bisognerà vedere anche i prezzi finali se sono questi.
A me, ora come ora una x70 like andava benissimo, in quanto considerando pannello e CPU sarebbe la scelta perfetta.:)

Maury
28-10-2021, 16:28
Mi chiedo quanto tempo ci voglia per far prendere piega al DLSS in salsa INTEL, dato che va implementato in ogni singolo gioco, per quelli già usciti prevedo una fievole adesione, il dubbio è per i nuovi.

ninja750
08-11-2021, 15:58
come nel maiale che non si butta via niente, probabilmente verrà presentata anche una variante 448cu

quindi allo stato attuale avremmo:

512
448
384 (pare verrà cassata)
256
128

ninja750
17-12-2021, 16:43
prime immagini dei due differenti chip

https://cdn.videocardz.com/1/2021/12/Intel-Arc-DG2-GPUs-2-1200x675.jpg

si definiscono i nomi commerciali

A350 ==> la 128EU 4gb 2.5ghz 75w
A380 ==> la 128EU 6gb 2.5ghz 100w
A700 ==> la 512EU 16gb 2.5ghz 225w

in mezzo probabilmente una A500 quindi è probabile utilizzino i nomi delle cpu core con 3/5/7

FroZen
17-12-2021, 17:16
Non mi pare piccolino....sono 10nm anche questi come alder giusto?

fraussantin
17-12-2021, 17:35
Non mi pare piccolino....sono 10nm anche questi come alder giusto?Non erano TSMC 7nm?

PConly92
17-12-2021, 18:32
TSMC 6nm per la 512 EU se non sbaglio.
ho l'impressione che probabilmente per la fascia medio bassa utilizzeranno un loro processo produttivo

mikael84
17-12-2021, 18:45
Non mi pare piccolino....sono 10nm anche questi come alder giusto?

6nm EUV, con core da 396mm2.
Da vedere l'IPC, perchè a flops viaggiano tra i 18@2,2 ed i 20 a 2,45, valori simili alle 3080 e 6800.
Il paragone con la AMD da 13TF e la nvidia da 15, vuol dire tutto e niente al momento.
Speriamo si possano reperire almeno.

Non erano TSMC 7nm?

6nm EUV, che è sempre un 7EUV alla fine

ninja750
27-12-2021, 14:31
gtranslate ma si capisce bene:

Durante un'intervista sponsorizzata, Koduri ha parlato delle GPU discrete di Arc Alchemist. Ha menzionato lo stato attuale dell'hardware Arc e la trasformazione culturale in Intel necessaria per combinare il software grafico in un unico stack. Non solo ha rivelato che stava effettivamente trasmettendo in streaming utilizzando una GPU Arc Alchemist, ma anche che l'hardware ha già superato lo stato beta. L'Arc Alchemist sta già effettuando il campionamento ai partner che stanno fornendo attivamente feedback. Tuttavia, non è ancora un prodotto finale.

Inoltre, Koduri ha confermato che Intel non sta lavorando solo su più generazioni di hardware future (Battlemage, Celestial e Druid) ma anche su diversi livelli di software. Ha preso in giro una nuova funzionalità che potrebbe arrivare alle GPU Arc, che è una tecnologia che concederebbe l'accesso a un PC in remoto, ad esempio, per provare Cyberpunk 2077 sul PC di un amico dotato di GPU discreta Intel. Tuttavia, questo tipo di funzionalità di gioco cloud locale non arriverà sulle GPU Intel nel 2022, Koduri stava solo prendendo in giro i piani nella futura roadmap del software di Intel.

Per quanto riguarda la disponibilità di Arc Alchemist, Koduri ha affermato che Intel sta già producendo GPU Arc presso TSMC, ma il problema della carenza di GPU non è transitorio, ma piuttosto qualcosa che dovremo ancora affrontare nel prossimo futuro. Tuttavia, l'attuale quota di mercato delle GPU discrete di Intel è (quasi) zero, motivo per cui l'attuale incentivo non è finanziario ma per ottenere prima una base di installazione sul mercato. Le mining farm non sono sicuramente i piani base di installazione di Intel, ha aggiunto. È interessante notare che Koduri ha confermato che Intel sta già sviluppando soluzioni hardware per operazioni blockchain, ma queste non devono essere confuse con le GPU.

Intel non dovrebbe fornire soluzioni multi-GPU con la prima generazione di Arc Alchemist. Questi sono possibili tramite "hack" del software (come dice Koduri), ma l'attenzione è chiaramente su un'implementazione hardware a un certo punto. L'intervista si è conclusa con una domanda sul colore delle schede grafiche Arc. Koduri ha detto che se avesse deciso, quelli sarebbero stati blu. Naturalmente, abbiamo già visto i campioni tecnici che apparivano solo nei colori nero e argento, quindi probabilmente non accadrà:

ninja750
30-12-2021, 11:42
https://videocardz.com/newz/intel-arc-alchemist-desktop-discrete-graphcis-cards-now-rumored-to-launch-in-march-2022

lancio delle prime due a marzo 2022, la 512 e la 384

mikael84
30-12-2021, 13:03
https://videocardz.com/newz/intel-arc-alchemist-desktop-discrete-graphcis-cards-now-rumored-to-launch-in-march-2022

lancio delle prime due a marzo 2022, la 512 e la 384

Ecco la 512 se reperibile può essere interessante.

FrancoBit
04-01-2022, 19:48
Certo che al CES potevano darci una pillolina o qualcosa sulle schede discrete cheddiamine.. E va bè aspettiamo ancora

mikael84
10-01-2022, 15:39
Certo che al CES potevano darci una pillolina o qualcosa sulle schede discrete cheddiamine.. E va bè aspettiamo ancora

A quanto pare i tempi si allungano. Intel pare pensare in primis ai note.

ninja750
10-01-2022, 16:36
in realtà pare abbiano spedito in questi giorni i primi ES agli OEM ma non ai partner designati asus ecc

voci di corridoio danno un ulteriore spostamento della presentazione da Q1 a Q2, di sto passo verranno presentati i refresh di navi2 ed ampere e si dovrà scontrare con quelli :stordita:

mikael84
10-01-2022, 16:42
in realtà pare abbiano spedito in questi giorni i primi ES agli OEM ma non ai partner designati asus ecc

voci di corridoio danno un ulteriore spostamento della presentazione da Q1 a Q2, di sto passo verranno presentati i refresh di navi2 ed ampere e si dovrà scontrare con quelli :stordita:

Nel q2 sarà vicino Lovelace, altro che ampere.
I 5nm dovremmo vederli già da marzo con Hopper.

FrancoBit
21-01-2022, 11:33
Nel q2 sarà vicino Lovelace, altro che ampere.
I 5nm dovremmo vederli già da marzo con Hopper.

Scusami se ti quoto ma sei il riferimento che mi è saltato in mente per capire se sti dati sono interessanti o meno:
https://www.techpowerup.com/291176/intel-arc-alchemist-xe-hpg-graphics-card-with-512-eus-outperforms-nvidia-geforce-rtx-3070-ti

Un saluto!

ninja750
21-01-2022, 11:48
Intel's Arc Alchemist discrete lineup of graphics cards is scheduled for launch this quarter. We are getting some performance benchmarks of the DG2-512EU silicon, representing the top-end Xe-HPG configuration. Thanks to a discovery of a famous hardware leaker TUM_APISAK, we have a measurement performed in the SiSoftware database that shows Intel's Arc Alchemist GPU with 4096 cores and, according to the report from the benchmark, just 12.8 GB of GDDR6 VRAM. This is just an error on the report, as this GPU SKU should be coupled with 16 GB of GDDR6 VRAM. The card was reportedly running at 2.1 GHz frequency. However, we don't know if this represents base or boost speeds.

When it comes to actual performance, the DG2-512EU GPU managed to score 9017.52 Mpix/s, while something like NVIDIA GeForce RTX 3070 Ti managed to get 8369.51 Mpix/s in the same test group. Comparing these two cards in floating-point operations, Intel has an advantage in half-float, double-float, and quad-float tests, while NVIDIA manages to hold the single-float crown. This represents a 7% advantage for Intel's GPU, meaning that Arc Alchemist has the potential for standing up against NVIDIA's offerings.




quindi sarebbe quasi in linea con la 6800 liscia
restano da vedere i consumi e il supporto driver

mikael84
21-01-2022, 13:35
Scusami se ti quoto ma sei il riferimento che mi è saltato in mente per capire se sti dati sono interessanti o meno:
https://www.techpowerup.com/291176/intel-arc-alchemist-xe-hpg-graphics-card-with-512-eus-outperforms-nvidia-geforce-rtx-3070-ti

Un saluto!

Diciamo che vuol dire tutto e nulla.
per dire, è come basarsi su questo:
https://images.anandtech.com/graphs/graph13346/100947.png

Il clock dovrebbe essere compreso tra 2.1 e 2.5, con potenze teoriche pari a 17,5/20TF, che è superiore ai 15 medi della 3070ti.
Va da se che il rapporto è favorevole ad Intel in alcuni scenari, ma non abbiamo prove vere sul campo, come potrebbe essere anche un banale sintetico.
Anche Il MCM potrebbe portare latenze che la farebbero perdere qualche percentuale a pari flops.

Nvidia si è già mossa, preparando la 3070ti da 16gb, quindi probabilmente si aspetta prestazioni simili.

NAP.
22-01-2022, 04:10
Potevano essere proposte interessanti se uscivano nel secondo quarto del 2021, adesso nascono già vecchie, con quel livello di prestazioni per una "top di gamma"

Sent from my M2102K1G using Tapatalk

sniperspa
22-01-2022, 11:45
Potevano essere proposte interessanti se uscivano nel secondo quarto del 2021, adesso nascono già vecchie, con quel livello di prestazioni per una "top di gamma"

Sent from my M2102K1G using Tapatalk

Bè ma immagino che le "top di gamma" intel se le sognerà per un bel pò

Cyfer73
22-01-2022, 12:32
...adesso nascono già vecchie, con quel livello di prestazioni per una "top di gamma"

:doh: :doh: :doh:

Eh già, adesso c'è la 3090ti a 3k€ che va sicuramente di più.
Cosa ce ne facciamo di una scheda che potenzialmente va come e più di una 3070 e che magari costa di meno... chi mai potrebbe volere una ciofeca del genere? Che schifo! :rolleyes:

Si scherza eh. ;)

NAP.
22-01-2022, 14:42
Bè ma immagino che le "top di gamma" intel se le sognerà per un bel pòSe queste sono le premesse direi disi, hanno molto ancora da lavorare:doh: :doh: :doh:

Eh già, adesso c'è la 3090ti a 3k€ che va sicuramente di più.
Cosa ce ne facciamo di una scheda che potenzialmente va come e più di una 3070 e che magari costa di meno... chi mai potrebbe volere una ciofeca del genere? Che schifo! :rolleyes:

Si scherza eh. ;)Ma perché pensi che queste te le regalino? Se davvero uscissero e si potrebbero comprare con facilità e al prezzo giusto potrebbero quindi essere prese in considerazione dai più, alla fine il rapporto qualità prezzo fa sempre la differenza, ma tralasciando l'aspetto finanziario, valutando solo quello tecnico, sono schede che nascono vecchie, non c'è molto da discutere su questo, avrei voluto che davvero ai proponessero come alternativa valida anche sulla mera potenza bruta, cosa che a questo giro non accadrà, si vedrà poi in base al loro effettivo successo cosa succederà con la prossima generazione di schede. Certo è che se escono e sono introvabili come le nVidia, allora è inutile, è un altro prodotto esistente solo sulla carta

Sent from my M2102K1G using Tapatalk

Cyfer73
22-01-2022, 15:33
Se queste sono le premesse direi disi, hanno molto ancora da lavorareMa perché pensi che queste te le regalino? Se davvero uscissero e si potrebbero comprare con facilità e al prezzo giusto potrebbero quindi essere prese in considerazione dai più, alla fine il rapporto qualità prezzo fa sempre la differenza, ma tralasciando l'aspetto finanziario, valutando solo quello tecnico, sono schede che nascono vecchie, non c'è molto da discutere su questo, avrei voluto che davvero ai proponessero come alternativa valida anche sulla mera potenza bruta, cosa che a questo giro non accadrà, si vedrà poi in base al loro effettivo successo cosa succederà con la prossima generazione di schede. Certo è che se escono e sono introvabili come le nVidia, allora è inutile, è un altro prodotto esistente solo sulla carta

Sent from my M2102K1G using Tapatalk

C'è chi compra proprio in base al rapporto prezzo/prestazioni, non tutti sono interessati alle prestazioni assolute.

Raja Koduri ha detto che per questa prima generazione di gpu, lo scopo non è quello di guadagnarci, ma di ritagliarsi una posizione in un mercato in cui in questo mometo loro partono da zero e per arrivarci sono disposti a vendere in pareggio se non addirittura in perdita, ed Intel ha la forza economica per farlo.

https://youtu.be/Yre8CHS73-Q?t=1641

Ripeto, chi vive solo di top di gamma continuerà a comprare Nvidia o AMD a qualsiasi prezzo, ma stiamo parlando di ethusiast (e li chiamo così per non risultare poco simpatico), mentre i grossi numeri si fanno con il resto del mercato, il mercato delle persone a cui non va a genio l'idea di farsi spennare per poter dire "io faccio xx fps in più".
Ovviamente non ho la sfera di cristallo, la mia è solo una speranza, ma se Intel mantenesse quello che sta dicendo e portasse prodotti con prestazioni decenti a prezzi abbordabili, vedrai che venderanno un botto anche se nascono già vecchie.
Sul discorso puramente tecnico, partivano da... niente! Già entrare con un prodotto alla sua prima iterazione con prestazioni a livello di una 3070, non lo vedo di certo come un fallimento, anzi.
Senza contare che, sempre a livello tecnico, XeSS sulla carta sembra molto meno avido di risorse del DLSS ed anche questo mi pare un biglietto da visita mica male per un'architettura neonata.

https://youtu.be/nmHK2iEZRUM

mikael84
22-01-2022, 15:48
intel quest'anno parte così, inserendosi in questa gen. I piani però sono ben delineati.
Già a partire dall'anno prossimo, dovrebbe lanciare Battlemage, con la possibilità di inserire 4 tile o 16 shader per EU (8196 totali), andando a competere con RDNA3 e Lovelace (non nell'enthusiat).

Volendo con un die da 600mm2, potrebbe competere pure con le top di gamma (6144 shader), ma non farà il salto più lungo della gamba inizialmente, e non gli conviene neppure farlo.

LkMsWb
22-01-2022, 18:21
Che poi... se il supporto Ray Tracing fosse valido, e XeSS performante e supportato (e chiaramente se i driver funzionano), una scheda dalle performance "brute" pari alla 3070 Ti non è che farebbe schifo. Permetterebbe un bell'upgrade a tutti coloro non dotati di schede dell'ultimissima generazione.

StylezZz`
22-01-2022, 18:29
Che poi... se il supporto Ray Tracing fosse valido, e XeSS performante e supportato (e chiaramente se i driver funzionano), una scheda dalle performance "brute" pari alla 3070 Ti non è che farebbe schifo. Permetterebbe un bell'upgrade a tutti coloro non dotati di schede dell'ultimissima generazione.

Esatto, ma vallo a spiegare a chi ragiona a senso unico...come se alla maggioranza fregasse qualcosa se è ''vecchia'' e non arriva ai livelli di una 3090 :asd:

Se costa il giusto ed è disponibile (SE) io la prendo.

Ubro92
22-01-2022, 19:57
A me basterebbe un'equivalente della 3060ti, magari fosse disponibile e non doverla pagare un rene...

mikael84
22-01-2022, 20:37
A me basterebbe un'equivalente della 3060ti, magari fosse disponibile e non doverla pagare un rene...

Bisogna vedere se tirano fuori la 448 o la 384 EU.
Io spero nella 512.:)
Sulla carta rimangono più muscle, 128 rop's e HC18 per una buona BW.

sniperspa
23-01-2022, 00:33
Esatto, ma vallo a spiegare a chi ragiona a senso unico...come se alla maggioranza fregasse qualcosa se è ''vecchia'' e non arriva ai livelli di una 3090 :asd:

Se costa il giusto ed è disponibile (SE) io la prendo.

Che sia paragonabile alla 3070 è tutto da vedere (e ci credo gran poco ora)

Ovviamente interessa poco che raggiungano la 3090 o 6900 che sia...però si tratta di acquistare schede che saranno molto probabilmente immature sotto l'aspetto driver e consumeranno come delle stufe
Quindi il risparmio economico perchè siano appetibili deve essere molto marcato direi.

Poi chissefrega quanto gli costa ad Intel produrle

mikael84
23-01-2022, 00:39
Che sia paragonabile alla 3070 è tutto da vedere (e ci credo gran poco ora)

Ovviamente interessa poco che raggiungano la 3090 o 6900 che sia...però si tratta di acquistare schede che saranno molto probabilmente immature sotto l'aspetto driver e consumeranno come delle stufe
Quindi il risparmio economico perchè siano appetibili deve essere molto marcato direi.

Poi chissefrega quanto gli costa ad Intel produrle

Se non raggiunge una 3070 è un fallimento totale. La 3070 ha un picco medio di 14tf. Scorporando le INT sono 3700cc medi.
La Intel dovrebbe avere 512 EU,4096 shader x un clock di 2,1-2,5 su un PP decisamente superiore come i 6nm di TSMC.
Il die di 396mm2 è allineato a GA104, seppur sui 6nm.

NAP.
23-01-2022, 02:49
Non c'entra niente a che fascia di utenti vogliono mirare, se continuano a comprarle solo miners e scalper, sarà un risultato per loro ed un fallimento per noi, possono annunciare una simil 3070 a 300€ ma se poi in giro non si trovano a quel prezzo, o non si trovano proprio alla fine chi se ne frega a che fascia pensano di puntare?

Sent from my M2102K1G using Tapatalk

Cyfer73
23-01-2022, 06:09
Non c'entra niente a che fascia di utenti vogliono mirare, se continuano a comprarle solo miners e scalper, sarà un risultato per loro ed un fallimento per noi, possono annunciare una simil 3070 a 300€ ma se poi in giro non si trovano a quel prezzo, o non si trovano proprio alla fine chi se ne frega a che fascia pensano di puntare?

Sent from my M2102K1G using Tapatalk

Tratto dal video che ho postato:

"...one thing that is unique about Intel coming in versus the existing players is that our current market share in discrete graphics is zero... so my goal and our goal as Intel for the first few years is not the financial incentive. We need to get an install base in-game or machines... so my priority is to get a good enough install base. My gpus sitting on a mining farm are not an install base...".

Direi che ne sono ben consci ed anche loro lo considererebbero un fallimento se le gpu non arrivassero nelle mani dell'utenza per cui sono state pensate.
Già il fatto che ne parlino apertamente, a differenza di Nvidia ed AMD che da un anno e mezzo fanno finta di nulla, come se il problema non esistesse (ed intanto fanno fatturati da record), mi lascia ben sperare.

Ubro92
23-01-2022, 08:54
Che sia paragonabile alla 3070 è tutto da vedere (e ci credo gran poco ora)

Ovviamente interessa poco che raggiungano la 3090 o 6900 che sia...però si tratta di acquistare schede che saranno molto probabilmente immature sotto l'aspetto driver e consumeranno come delle stufe
Quindi il risparmio economico perchè siano appetibili deve essere molto marcato direi.

Poi chissefrega quanto gli costa ad Intel produrle

In realtà lato driver Intel già si è mossa da diversi mesi con changelog che sono dei poemi a ogni release, basta osservare anche le gpu notebook XE con 80/96EU che spingono sufficientemente bene per il target, al pari delle relative Vega (con il solito scarto a favore delle XE e delle Vega a seconda del gioco).

Lato consumi è ancora presto per dirlo, ma bene o male siamo li, non stiamo parlando di una 3070ti con consumi da 3090 XD

Il problema è e rimane uno solo, ovvero disponibilità e prezzi, che con questo mercato è impossibile fare pronostici...
Ho diversi amici che metterebbero la firma anche per prendere una 3050 a 300€ per come siamo messi...

fraussantin
23-01-2022, 09:10
Il problema più grosso é che se confermato che le produrrà TSMC non aumenterà il volume di schede prodotte.

StylezZz`
23-01-2022, 11:22
Che sia paragonabile alla 3070 è tutto da vedere (e ci credo gran poco ora)

Ovviamente interessa poco che raggiungano la 3090 o 6900 che sia...però si tratta di acquistare schede che saranno molto probabilmente immature sotto l'aspetto driver e consumeranno come delle stufe
Quindi il risparmio economico perchè siano appetibili deve essere molto marcato direi.

Poi chissefrega quanto gli costa ad Intel produrle

Prima facciamole uscire, poi valuteremo...al momento mi preoccuperei più di disponibilità e prezzi, i driver e i consumi sono il problema minore.

sniperspa
23-01-2022, 11:53
In realtà lato driver Intel già si è mossa da diversi mesi con changelog che sono dei poemi a ogni release, basta osservare anche le gpu notebook XE con 80/96EU che spingono sufficientemente bene per il target, al pari delle relative Vega (con il solito scarto a favore delle XE e delle Vega a seconda del gioco).


Ok ma non parlo solo di FPS o che i giochi girino, ma un pò di tutto l'ecosistema driver e la capacità di personalizzazione

Prima facciamole uscire, poi valuteremo...al momento mi preoccuperei più di disponibilità e prezzi, i driver e i consumi sono il problema minore.

Sicuramente il problema sono i primi due...anche perchè se per produrle devono erodere la produzione di schede Nvidia/AMD siamo punto a capo

Comunque staremo a vedere, sicuramente non farò da tester ma seguirò la questione :cool:

Bi7hazard
23-01-2022, 11:54
una 3070 / 3060ti a prezzo reale msrp o qualcosa di più sarebbe un sogno per ogni videogiocatore ma immagino che si appoggerà alla solita TSMC ergo ez rekts

Cyfer73
23-01-2022, 12:17
Cioè... finiranno in mano ai miners ed agli scalpers, costeranno un botto, saranno introvabili... questo tipo di negatività/disfattismo, visto il periodo che stiamo vivendo, posso anche comprenderlo.

Ma "sono già obsolete ancora prima di arrivare, le prestazioni saranno un fallimento, i driver li ha scritti uno scimpanzé autistico, saranno delle stufe che fonderanno il resto dell'hardware nel case, anche se costassero poco richiederanno un contratto da 12Kw per funzionare, etc...".

Questa non è più negatività... comincia ad assomigliare più ad ostilità nei confronti di un brand che magari non è quello del cuore...

Prima di giudicare, ovviamente dovremo vederle in azione, ma la semplice comparsa di una realtà in più con cui fare i conti in futuro, per me è già un aspetto positivo, dato come stanno andando le cose con l'attuale duopolio Nvidia/AMD.

Inviato dal mio SM-G925F utilizzando Tapatalk

Cyfer73
23-01-2022, 12:29
Ok ma non parlo solo di FPS o che i giochi girino, ma un pò di tutto l'ecosistema driver e la capacità di personalizzazione







Sicuramente il problema sono i primi due...anche perchè se per produrle devono erodere la produzione di schede Nvidia/AMD siamo punto a capo



Comunque staremo a vedere, sicuramente non farò da tester ma seguirò la questione :cool:

Ma non devono erodere nulla, non funziona così.
I contratti per gli slot produttivi (quantità di wafer al mese), li definisci come minimo un anno prima con TSMC, non è che li decidi al momento.
Poi comunque sembra che una parte (forse le soluzioni basso di gamma) se le produrranno anche da soli.

Inviato dal mio SM-G925F utilizzando Tapatalk

NAP.
23-01-2022, 20:17
Cioè... finiranno in mano ai miners ed agli scalpers, costeranno un botto, saranno introvabili... questo tipo di negatività/disfattismo, visto il periodo che stiamo vivendo, posso anche comprenderlo.

Ma "sono già obsolete ancora prima di arrivare, le prestazioni saranno un fallimento, i driver li ha scritti uno scimpanzé autistico, saranno delle stufe che fonderanno il resto dell'hardware nel case, anche se costassero poco richiederanno un contratto da 12Kw per funzionare, etc...".

Questa non è più negatività... comincia ad assomigliare più ad ostilità nei confronti di un brand che magari non è quello del cuore...

Prima di giudicare, ovviamente dovremo vederle in azione, ma la semplice comparsa di una realtà in più con cui fare i conti in futuro, per me è già un aspetto positivo, dato come stanno andando le cose con l'attuale duopolio Nvidia/AMD.

Inviato dal mio SM-G925F utilizzando TapatalkChe scaldino come un forno o che i driver siano immaturi sono supposizioni, che nascano arretrate un dato di fatto, siamo su in forum di appassionati, si valutano le prestazioni pure a prescindere dall'impatto sul mercato o cosa è meglio fare a livello di marketing, e su quelle non c'è dubbio mi pare

Sent from my M2102K1G using Tapatalk

Cyfer73
23-01-2022, 20:54
Che scaldino come un forno o che i driver siano immaturi sono supposizioni, che nascano arretrate un dato di fatto, siamo su in forum di appassionati, si valutano le prestazioni pure a prescindere dall'impatto sul mercato o cosa è meglio fare a livello di marketing, e su quelle non c'è dubbio mi pare

Sent from my M2102K1G using Tapatalk

Mah, si e no.
Io sono appassionato di hardware che posso portarmi a casa senza sentirmi moralmente oltraggiato... :D
Dal punto di vista "accademico" possiamo anche stare a discutere di chi adotti le soluzioni più avanzate ed innovative ed elogiare le tecnologie più performanti ed evolute.
Ma se l'evoluzione e le prestazioni non vanno di paripasso con l'acquistabilità a prezzi abbordabili dalla stragrande maggiornza della gente, sta tranquillo che il forum si sarebbe già svuotato da anni.
Ergo, ma parlo per quanto riguarda me, io valuto le prestazioni in modo imprescindibile dall'impatto sul mercato e credo che la maggiornza degli utenti sia dello stesso avviso, altrimenti dovremmo stare qui a parlare solo di computer quantistici che sono un pelino più evoluti di quelli che abbiamo sulle nostre scrivanie anche se costano una quisquiglia in più... :sofico:

PS. Il dato oggettivo non può essere distaccato dalla realtà in cui dovrebbe andare a collocarsi. Come quelli che dicono che comprare DDR4 è assurdo perchè sono una tecnologia morta, mentre dal mio punto di vista sono le DDR5 a non essere ancora mature per rappresentare un upgrade conveniente.

NAP.
24-01-2022, 04:10
Mah, si e no.

Io sono appassionato di hardware che posso portarmi a casa senza sentirmi moralmente oltraggiato... :D

Dal punto di vista "accademico" possiamo anche stare a discutere di chi adotti le soluzioni più avanzate ed innovative ed elogiare le tecnologie più performanti ed evolute.

Ma se l'evoluzione e le prestazioni non vanno di paripasso con l'acquistabilità a prezzi abbordabili dalla stragrande maggiornza della gente, sta tranquillo che il forum si sarebbe già svuotato da anni.

Ergo, ma parlo per quanto riguarda me, io valuto le prestazioni in modo imprescindibile dall'impatto sul mercato e credo che la maggiornza degli utenti sia dello stesso avviso, altrimenti dovremmo stare qui a parlare solo di computer quantistici che sono un pelino più evoluti di quelli che abbiamo sulle nostre scrivanie anche se costano una quisquiglia in più... :sofico:



PS. Il dato oggettivo non può essere distaccato dalla realtà in cui dovrebbe andare a collocarsi. Come quelli che dicono che comprare DDR4 è assurdo perchè sono una tecnologia morta, mentre dal mio punto di vista sono le DDR5 a non essere ancora mature per rappresentare un upgrade conveniente.Da come ne parli sembra che questa sia la scheda che tutti vogliono, e può essere pure vero, ammesso che si troveranno a prezzi MSRP, tu ci credi?

Sent from my M2102K1G using Tapatalk

ninja750
24-01-2022, 10:37
per me arrivare alle prestazioni di una 3070 è un miracolo per chi non ha mai fatto nulla in questo settore, infatti sono sicuro che per arrivarci abbiano fatto un po troppi compromessi specialmente sui consumi che li prevedo molto ma molto alti

ma miracolo rimane, o meglio, tutto grazie alla fuga di idee e progetti di Radja

fosse così facile approntare una GPU in due/tre anni avremmo una esplosione di competitor altro che amd vs nvidia come negli ultimi 30 anni

Cyfer73
24-01-2022, 12:29
Da come ne parli sembra che questa sia la scheda che tutti vogliono, e può essere pure vero, ammesso che si troveranno a prezzi MSRP, tu ci credi?

Sent from my M2102K1G using TapatalkNon è che ci credo. Più che altro ci spero.
Quello che credo è che tutti stiamo aspettando delle alternative appena appena valide a quello che offre il mercato oggi.
Che poi queste alternative arrivino da Intel, Melegatti o dall'ovetto Kinder, a me poco cambia.

Inviato dal mio SM-G925F utilizzando Tapatalk

mikael84
24-01-2022, 12:57
per me arrivare alle prestazioni di una 3070 è un miracolo per chi non ha mai fatto nulla in questo settore, infatti sono sicuro che per arrivarci abbiano fatto un po troppi compromessi specialmente sui consumi che li prevedo molto ma molto alti

ma miracolo rimane, o meglio, tutto grazie alla fuga di idee e progetti di Radja

fosse così facile approntare una GPU in due/tre anni avremmo una esplosione di competitor altro che amd vs nvidia come negli ultimi 30 anni

Alla base della microarchitettura c'è sempre il progetto EU, che intel usa da svariati anni nelle sue integrate. Chiaro la mano di Radja è stata essenziale.
Il progetto Intel, alla fine nasce essenzialmente per puntare al HPC, e sarà la prima a puntare al MCM.

Tody
24-01-2022, 13:01
Non è che ci credo. Più che altro ci spero.
Quello che credo è che tutti stiamo aspettando delle alternative appena appena valide a quello che offre il mercato oggi.
Che poi queste alternative arrivino da Intel, Melegatti o dall'ovetto Kinder, a me poco cambia.
Inviato dal mio SM-G925F utilizzando Tapatalk

Se Melegatti e l'ovetto kinder si appoggeranno alla stessa fonderia di Intel, Amd, Nvidia (TSMC se non lo si fosse capito) il problema resterà uguale. Splittare la produzione degli stessi stabilimenti a più competitor non aumenta la produzione di chip :stordita:

NAP.
24-01-2022, 13:40
Non è che ci credo. Più che altro ci spero.
Quello che credo è che tutti stiamo aspettando delle alternative appena appena valide a quello che offre il mercato oggi.
Che poi queste alternative arrivino da Intel, Melegatti o dall'ovetto Kinder, a me poco cambia.

Inviato dal mio SM-G925F utilizzando TapatalkCi speriamo tutti, una 3070ti sarebbe un upgrade per molti se si trovassero a prezzi reali, avrebbero un ottimo mercato, ma se appunto entrano nel mercato allo stesso modo di nVidia e AMD, non abbiamo risolto nulla, e allora rimane il discorso che è una scheda nata vecchia a parità di incidenza sul mercato

Sent from my M2102K1G using Tapatalk

Cyfer73
24-01-2022, 13:48
Se Melegatti e l'ovetto kinder si appoggeranno alla stessa fonderia di Intel, Amd, Nvidia (TSMC se non lo si fosse capito) il problema resterà uguale. Splittare la produzione degli stessi stabilimenti a più competitor non aumenta la produzione di chip :stordita:

A questo ho già risposto sopra.

Ma non devono erodere nulla, non funziona così.
I contratti per gli slot produttivi (quantità di wafer al mese), li definisci come minimo un anno prima con TSMC, non è che li decidi al momento.
Poi comunque sembra che una parte (forse le soluzioni basso di gamma) se le produrranno anche da soli.

Cyfer73
24-01-2022, 14:07
Intento per chi se lo fosse perso:

Leaked benchmark of Intel Arc Alchemist discrete desktop GPU shows RTX 3070 Ti performance (https://videocardz.com/newz/leaked-benchmark-of-intel-arc-alchemist-discrete-desktop-gpu-shows-rtx-3070-ti-performance)

The card actually scored higher than NVIDIA’s RTX 3070 Ti GPU. With a score of 9017.52 Mpix/s, it is 7.7% faster than the NVIDIA card which only scored 8369.51 Mpix/s.

Rumors suggest it might clock up to 2.5 GHz and feature around 225W of typical power. It was speculated to compete against RTX 3070 graphics with a chance of reaching RTX 3070 Ti performance. NVIDIA knows this very well, which is why the company has been preparing an updated RTX 3070 Ti model with 16GB memory to match the new competitor.

Ovviamente non sono dati ufficiali, ma leak.
In ogni caso, 7,7% di prestazioni in più di una 3070 ti, con un TDP di 225W contro 290W della rivale, fa ben seprare.
Ripeto, SPERARE.
Se poi vogliamo partire per forza con le mani avanti... ma così potrebbe sembrare che si sia quasi contenti che Nvidia/AMD ci stiano incu£@ndo con la sabbia da più di un anno e mezzo. :boh:

NAP.
25-01-2022, 01:36
Intento per chi se lo fosse perso:

Leaked benchmark of Intel Arc Alchemist discrete desktop GPU shows RTX 3070 Ti performance (https://videocardz.com/newz/leaked-benchmark-of-intel-arc-alchemist-discrete-desktop-gpu-shows-rtx-3070-ti-performance)





Ovviamente non sono dati ufficiali, ma leak.
In ogni caso, 7,7% di prestazioni in più di una 3070 ti, con un TDP di 225W contro 290W della rivale, fa ben seprare.
Ripeto, SPERARE.
Se poi vogliamo partire per forza con le mani avanti... ma così potrebbe sembrare che si sia quasi contenti che Nvidia/AMD ci stiano incu£@ndo con la sabbia da più di un anno e mezzo. :boh:Ma perché voi vi credete che le schede intel non subiranno lo stesso problema? Voi veramente vi pensate di trovarle in quantità e prezzi umani?

Sent from my M2102K1G using Tapatalk

Cyfer73
25-01-2022, 02:32
Ma perché voi vi credete che le schede intel non subiranno lo stesso problema? Voi veramente vi pensate di trovarle in quantità e prezzi umani?

Sent from my M2102K1G using Tapatalk

https://c.tenor.com/6r8NbHugOMAAAAAd/e-vabbe-vabbe.gif

mikael84
25-01-2022, 13:18
Intento per chi se lo fosse perso:

Leaked benchmark of Intel Arc Alchemist discrete desktop GPU shows RTX 3070 Ti performance (https://videocardz.com/newz/leaked-benchmark-of-intel-arc-alchemist-discrete-desktop-gpu-shows-rtx-3070-ti-performance)





Ovviamente non sono dati ufficiali, ma leak.
In ogni caso, 7,7% di prestazioni in più di una 3070 ti, con un TDP di 225W contro 290W della rivale, fa ben seprare.
Ripeto, SPERARE.
Se poi vogliamo partire per forza con le mani avanti... ma così potrebbe sembrare che si sia quasi contenti che Nvidia/AMD ci stiano incu£@ndo con la sabbia da più di un anno e mezzo. :boh:

Si, ne abbiamo parlato qualche posto su.
https://www.hwupgrade.it/forum/showpost.php?p=47716369&postcount=146

I numeri sono dalla parte di Intel, ma ancora non abbiamo prove dirette sul campo. Ad esempio AMD e Nvidia, a pari flops sono simili.
Con Intel andrà verificato pure il clock finale.
Per dire, a 2,5ghz produrrebbe lo stesso ratio medio di una 3080/6800xt, ma dovrebbe anche andare alla pari, cosa praticamente molto difficile.
Nvidia tagliando la 3070ti da 16gb, immagina già una situazione simile.

Sarà interessante anche il modello inferiore da 384 EU con 12gb, che potrebbe essere ai livelli della 3060 se non più.

Ale55andr0
25-01-2022, 14:00
Intento per chi se lo fosse perso:

Leaked benchmark of Intel Arc Alchemist discrete desktop GPU shows RTX 3070 Ti performance (https://videocardz.com/newz/leaked-benchmark-of-intel-arc-alchemist-discrete-desktop-gpu-shows-rtx-3070-ti-performance)





Ovviamente non sono dati ufficiali, ma leak.
In ogni caso, 7,7% di prestazioni in più di una 3070 ti, con un TDP di 225W contro 290W della rivale, fa ben seprare.
Ripeto, SPERARE.
Se poi vogliamo partire per forza con le mani avanti... ma così potrebbe sembrare che si sia quasi contenti che Nvidia/AMD ci stiano incu£@ndo con la sabbia da più di un anno e mezzo. :boh:

senza contare i 16gb di quegli 8 della 3070 che sono una presa per il culo

Ubro92
25-01-2022, 14:02
senza contare i 16gb di quegli 8 della 3070 che sono una presa per il culo

Non a caso se ne escono con la 3070ti 16GB :fagiano:

ninja750
04-02-2022, 15:58
https://cdn.videocardz.com/1/2022/02/INTEL-ARC-ALCHEMIST-DG2-2-768x503.jpg

https://cdn.videocardz.com/1/2022/02/INTEL-Arc-Alchemist-ES-2-1200x596.jpg

kiwivda
10-02-2022, 14:26
https://www.hdblog.it/hardware/articoli/n551214/intel-arc-alchemist-gpu-lancio-rimandato-q2-2022/

E si comincia, meno male che dovevano invadere il mercato :D

Speriamo in bene.

ninja750
10-02-2022, 15:14
c'è tempo :O

egounix
10-02-2022, 15:32
io vedo solo 2.8 dollari al giorno :asd:

mikael84
10-02-2022, 15:45
https://www.hdblog.it/hardware/articoli/n551214/intel-arc-alchemist-gpu-lancio-rimandato-q2-2022/

E si comincia, meno male che dovevano invadere il mercato :D

Speriamo in bene.

Si, teoricamente era già scontato in quanto non presentate al CES. L'obbiettivo primario loro è coprire la fascia dei notebook.
Certo che, in quei tempi, con l'estate alle porte, tanto vale aspettare Lovelace.

Ubro92
10-02-2022, 16:30
Si, teoricamente era già scontato in quanto non presentate al CES. L'obbiettivo primario loro è coprire la fascia dei notebook.
Certo che, in quei tempi, con l'estate alle porte, tanto vale aspettare Lovelace.

Dipende tutto dai prezzi e disponibilità se la situazione è sempre la stessa, assolutamente si, tanto vale aspettare la prossima gen...

Defqon1
26-02-2022, 07:44
Mi sembra che negli ultimi giorni siano aumentate di colpo le schede video usate in vendita, sia qui che altrove.
Potrebbe essere in previsione di un prossimo abbassamento di prezzi dovuto all'uscita delle Intel Arc Alchemist?

fraussantin
26-02-2022, 08:16
Mi sembra che negli ultimi giorni siano aumentate di colpo le schede video usate in vendita, sia qui che altrove.

Potrebbe essere in previsione di un prossimo abbassamento di prezzi dovuto all'uscita delle Intel Arc Alchemist?Più facile che i piccoli abbiano smesso di minare perché gli è arrivata la bolletta della luce

ninja750
26-02-2022, 17:54
Più facile che i piccoli abbiano smesso di minare perché gli è arrivata la bolletta della luce

e perchè il bitcoin è contemporaneamente sceso

29Leonardo
26-02-2022, 19:00
Più facile che i piccoli abbiano smesso di minare perché gli è arrivata la bolletta della luce

:D

ninja750
02-03-2022, 15:51
2400mhz per la 512 full

non male affatto

https://videocardz.com/newz/flagship-intel-arc-alchemist-desktop-graphics-card-spotted-with-2-4-ghz-gpu-clock

https://i.postimg.cc/k5CHmKFF/Intel-Arc-DG2512-vs-RTX3070-1-1200x495.webp

kiwivda
02-03-2022, 16:14
2400mhz per la 512 full

non male affatto

https://videocardz.com/newz/flagship-intel-arc-alchemist-desktop-graphics-card-spotted-with-2-4-ghz-gpu-clock

https://i.postimg.cc/k5CHmKFF/Intel-Arc-DG2512-vs-RTX3070-1-1200x495.webp

Minchia speriamo!

mikael84
02-03-2022, 16:16
Sarebbe interessante qualche prova decente, tipo un 3dmark-superposition. Quel test vuol dire tutto e niente.

ninja750
02-03-2022, 16:46
Sarebbe interessante qualche prova decente, tipo un 3dmark-superposition. Quel test vuol dire tutto e niente.

vuol dire che come frequenze in prima iterazione sono già +20% sopra nvidia e che dove ottimizzeranno i driver andranno un po meno delle 3070 come risultato migliore

credo che lato ottimizzazione ci saranno mesi e mesi di calvario ma la forza della vga dovrebbe essere confermata in quei numeri poi chiaro che un conto sono ambiti professionali un conto giochi dove passeranno tutto dietro directx

mikael84
02-03-2022, 17:02
vuol dire che come frequenze in prima iterazione sono già +20% sopra nvidia e che dove ottimizzeranno i driver andranno un po meno delle 3070 come risultato migliore

credo che lato ottimizzazione ci saranno mesi e mesi di calvario ma la forza della vga dovrebbe essere confermata in quei numeri poi chiaro che un conto sono ambiti professionali un conto giochi dove passeranno tutto dietro directx

le frequenze si sapevano già da tempo, se confermate è cmq ottimo.
Sui clock tra Intel ed nvidia, sarebbe strano il contrario, un 6nm TSMC (che su AMD arriva e supera i 2,8) contro un samsung 10nm (8lpp non riguarda il clock), che a sua volta si è rivelato in OC un pelo più lento dei 12/16nm di TSMC.:)

Le perf, vanno viste in ambienti decenti, quei test non hanno senso, soprattutto dove va pari ad una 2070.
A 2,4ghz a livello di flops si livella tra 3080 e 6800xt, se non riesce neppure a prendere una 3070 liscia da 14TF medi, è un fallimento totale.:)

Sui driver ci sarà sicuramente da lavorare, però ora come ora, con Lovelace vicino, non farei certo da tester.

egounix
02-03-2022, 17:50
mah su 1 ci faccio un pensierino

ho visto prezzi generali calati, ma l'unica cosa che vorrei prendere è una intel

speriamo non le cavino fori quando rialzano i prezzi...

mikael84
09-03-2022, 13:02
mah su 1 ci faccio un pensierino

ho visto prezzi generali calati, ma l'unica cosa che vorrei prendere è una intel

speriamo non le cavino fori quando rialzano i prezzi...

Pare ci siano problemi seri con i driver, schermi neri, crash, di prestazioni soprattutto nei vulkan, ed in dx12.
Il debutto dovrebbe essere tra maggio-giugno, ma con i driver potrebbe essere inizialmente un bagno di sangue, con Lovelace che debutterebbe 3 mesi dopo (ed in mezzo c'è l'estate).

Vash88
09-03-2022, 15:15
Pare ci siano problemi seri con i driver, schermi neri, crash, di prestazioni soprattutto nei vulkan, ed in dx12.
Il debutto dovrebbe essere tra maggio-giugno, ma con i driver potrebbe essere inizialmente un bagno di sangue, con Lovelace che debutterebbe 3 mesi dopo (ed in mezzo c'è l'estate).

I driver Nvidia e soprattutto AMD sono meno che perfetti e questi sono de facto un duopolio. L'hw è "facile". Il software, che deve lavorare con tutti le possibili configurazioni di questo pianeta, è un dramma.
Sarebbe figo avere un follow up sulla ASUS DG1-4G per vedere se i driver sono migliorati in questi 8 mesi. A quanto pare sembrerebbe di si ma non siamo ancora al 100%
Facendo una ricerca ho visto che Igor ha testato un altra DG1 oggi
https://www.igorslab.de/en/gunnir-iris-xe-max-index-v2-intels-dg1-new-in-test-lab-and-searching-for-the-fitting-microcode-2/
The gpu is, well, a bit bitchy, but that’s because of the drivers, as the UHD 770 showed very similar behavior. Due to these crashes, the decision to temporarily remove Metro Exodus from the benchmark suite because of the Ukraine war was also much easier for me. Far Cry 6 only ran with extreme graphics errors (on all Intel solutions) and Vulkan cannot be activated in WWZ. That’s why I tested this game with DirectX 11. But there were still enough games left that were running. Not to mention it again later: the edge flickering is really extreme in places, Intel still has to work hard on the drivers. This also applies to transparent textures, where ugly misrepresentations occurred again and again.
Uscita al momento prevista a Maggio
Currently, a period between the 18th and 22nd calendar week is rumored, which includes the entire month of May.

mikael84
09-03-2022, 18:49
I driver Nvidia e soprattutto AMD sono meno che perfetti e questi sono de facto un duopolio. L'hw è "facile". Il software, che deve lavorare con tutti le possibili configurazioni di questo pianeta, è un dramma.
Sarebbe figo avere un follow up sulla ASUS DG1-4G per vedere se i driver sono migliorati in questi 8 mesi. A quanto pare sembrerebbe di si ma non siamo ancora al 100%
Facendo una ricerca ho visto che Igor ha testato un altra DG1 oggi
https://www.igorslab.de/en/gunnir-iris-xe-max-index-v2-intels-dg1-new-in-test-lab-and-searching-for-the-fitting-microcode-2/

Uscita al momento prevista a Maggio


Dalla review di Igor, qualche numero in più
https://www.igorslab.de/wp-content/uploads/2022/03/007.jpg


5000mtransistor su un 125mm2, quindi abbiamo una densità di 40mt x mm2 (su un teorico di 100), inferiore di poco a quella di samsung usata da nvidia.
Sinceramente poca roba.
Allo stesso tempo clock inferiori al 14LPP di samsung usati sulla arch.pascal nvidia di fascia bassa.
Insomma questo PP non è che brilli, per fortuna si passerà a TSMC 6nm.

Sulle perf, lato shader, paradossalmente è teoricamente livellata alle prime del gruppo, quindi male, ma è strozzata dalla banda, rispetto le altre.
L'altra scheda strozzata è la RX550, che però ha 1,3tf contro 2,3 di Intel.

Peccato non aver avuto gli stessi valori di banda, per vederla, almeno contro Pascal.

Vash88
09-03-2022, 23:46
i 125mm2 mi sembrano esagerati. Se non ho capito male Iris XE Max (96CU) usa lo stesso silicio di Iris Xe (80CU), che sarebbe DG1. https://youtu.be/fpSfyxNO8jw?t=346
Le misure di DG1 sono tutte sui 95mm2 che è quello misurato anche da Steve. Secondo me è sbagliata la misura in mm2 nel pannello driver.

mikael84
10-03-2022, 01:16
i 125mm2 mi sembrano esagerati. Se non ho capito male Iris XE Max (96CU) usa lo stesso silicio di Iris Xe (80CU), che sarebbe DG1. https://youtu.be/fpSfyxNO8jw?t=346
Le misure di DG1 sono tutte sui 95mm2 che è quello misurato anche da Steve. Secondo me è sbagliata la misura in mm2 nel pannello driver.

Si ci sta. Una prova perfetta c'è, le rop's che sono 8 ogni 256 shader. Quindi GPUZ scazza sicuramente. Su 95mm2 però bisogna conoscere i transistor effettivi, come scazza per il die scazza per i transistor.

mikael84
13-03-2022, 12:49
Dati sui vari die

https://i.postimg.cc/3xP31xVs/soc.png


L2 per essere a 6nm discreta, 4mb x 1024 shader.

Il resto, dalla geometria alle rop's, viene gestito come fosse un 8 GPC di nvidia
https://i.postimg.cc/MT1HVQG3/cros.png

Maury
14-03-2022, 16:27
Mi chiedo se questo era proprio il massimo che potevano far debuttare nel primo semestre 2022 oppure se si sono tenuti stretti per sondare il terreno, evitando di far uscire GPU più prestazionali.

Scelta politica o tecnica ? Un modello oltre la 512 non era una brutta idea a mio avviso.

Ubro92
14-03-2022, 16:37
Mi chiedo se questo era proprio il massimo che potevano far debuttare nel primo semestre 2022 oppure se si sono tenuti stretti per sondare il terreno, evitando di far uscire GPU più prestazionali.

Scelta politica o tecnica ? Un modello oltre la 512 non era una brutta idea a mio avviso.

Politica, se volevano potevano tranquillamente scalare il chip a 768 o 1024EU.
In questa fase credo abbia più senso puntare sulla diffusione che sullo scettro delle prestazioni.

Vedremo lato prezzi come si posizioneranno, soprattutto ora che si inizia a vedere un concreto calo dei prezzi.

mikael84
14-03-2022, 17:18
Mi chiedo se questo era proprio il massimo che potevano far debuttare nel primo semestre 2022 oppure se si sono tenuti stretti per sondare il terreno, evitando di far uscire GPU più prestazionali.

Scelta politica o tecnica ? Un modello oltre la 512 non era una brutta idea a mio avviso.

Più che altro tecnica. Seguono una loro base microarchitetturale.
Attualmente con i 6nm non possono reggere il passo dei 5nm per la densità e ed efficienza, ed il loro schema è stato pensato per stare sui 400mm2 (che non è poco) e poco sopra i 200watt

Ogni render slice è composto da 512 shader su 64EU (che ora chiameremmo VE)
Lo schema ricorda quello a GPC di nvidia.
Allargarlo è troppo complesso, soprattutto per la posizione dei chip di memoria (come puoi vedere nello schema sopra).
Ci vorrebbe un'altra organizzazione
https://www.servethehome.com/wp-content/uploads/2021/08/Intel-Arc-Scalable-Core-Count.jpg


Con Battlemage (il chip che uscirà l'anno prossimo) e con i 5nm, ti ritrovi con 2 strade:
1) raddoppiare gli shader per VE, ed arrivare a 8196 shader (ma limitato da tutti gli stadi moltiplicatori, compreso le ram)
2) utilizzare il metodo MCM del chip HPC, che sarebbe questo:

Chiaramente è impensabile utilizzare 2 die in MCM da 400mm2 più interposer per tante ragioni, sarebbe come un MCM di 2 3070ti:p
http://3s81si1s5ygj3mzby34dq6qf-wpengine.netdna-ssl.com/wp-content/uploads/2021/08/intel-arch-day-xe-hpc-2-stack.jpg

Chiaramente in versione gaming (questo sarebbe equivalente ai vecchi tesla nvidia), con il risultato di poter raddoppiare tutto.

ninja750
15-03-2022, 10:01
quindi fine marzo (e ci siamo) lanciano la 128 per mobile poi fine maggio la 512 e forse la 256 fine giugno sempre che i tagli saranno confermati come tali

il chip 512 sembra essere più piccolo di N21

Maury
15-03-2022, 10:53
Politica, se volevano potevano tranquillamente scalare il chip a 768 o 1024EU.
In questa fase credo abbia più senso puntare sulla diffusione che sullo scettro delle prestazioni.

Vedremo lato prezzi come si posizioneranno, soprattutto ora che si inizia a vedere un concreto calo dei prezzi.

Con la fame che c'è di VGA, se uscisse in quantità con un prodotto sulla linea almeno della 3070, a giusto prezzo ovviamente altrimenti non la prenderebbe in considerazione nessuno, ne vederebbe parecchie. Certo che arrivano un pò lunghetti con i tempi dato che tra RDNA3 e Lovelace in arrivo tra pochi mesi hanno poco da spartire lato prestazioni. Abbiamo visto già cosa può tirar fuori una semplice 4060...

Più che altro tecnica. Seguono una loro base microarchitetturale.
Attualmente con i 6nm non possono reggere il passo dei 5nm per la densità e ed efficienza, ed il loro schema è stato pensato per stare sui 400mm2 (che non è poco) e poco sopra i 200watt

Ogni render slice è composto da 512 shader su 64EU (che ora chiameremmo VE)
Lo schema ricorda quello a GPC di nvidia.
Allargarlo è troppo complesso, soprattutto per la posizione dei chip di memoria (come puoi vedere nello schema sopra).
Ci vorrebbe un'altra organizzazione
https://www.servethehome.com/wp-content/uploads/2021/08/Intel-Arc-Scalable-Core-Count.jpg


Con Battlemage (il chip che uscirà l'anno prossimo) e con i 5nm, ti ritrovi con 2 strade:
1) raddoppiare gli shader per VE, ed arrivare a 8196 shader (ma limitato da tutti gli stadi moltiplicatori, compreso le ram)
2) utilizzare il metodo MCM del chip HPC, che sarebbe questo:

Chiaramente è impensabile utilizzare 2 die in MCM da 400mm2 più interposer per tante ragioni, sarebbe come un MCM di 2 3070ti:p
http://3s81si1s5ygj3mzby34dq6qf-wpengine.netdna-ssl.com/wp-content/uploads/2021/08/intel-arch-day-xe-hpc-2-stack.jpg

Chiaramente in versione gaming (questo sarebbe equivalente ai vecchi tesla nvidia), con il risultato di poter raddoppiare tutto.

Anche volendo quindi erano al massimo fattibile per il 2022, ergo, ad oggi oltre la 512 non potevano andare. Forse ricordo male ma in tempi non sospetti giravano voci di versioni più potenti della 512, che abbiano segato altri modelli poi impossibili da realizzare ?
L'importante per Intel è inziare ad inondare il mercato, farsi conoscere :D

Per Battlemage vedo facile un approccio MCM, poca spesa tanta resa... anche perchè il prossimo prodotto dovrà avere meno limiti degli attuali dato che la concorrenza avà prestazioni monstre. :eek:

A tuo avviso mikael, in questa prima versione, Intel ha lavorato bene o è emersa comunque la poca esperienza in VGA diverse dalle integrate ? :)

mikael84
15-03-2022, 13:04
Anche volendo quindi erano al massimo fattibile per il 2022, ergo, ad oggi oltre la 512 non potevano andare. Forse ricordo male ma in tempi non sospetti giravano voci di versioni più potenti della 512, che abbiano segato altri modelli poi impossibili da realizzare ?
L'importante per Intel è inziare ad inondare il mercato, farsi conoscere :D

Beh si, considera che un'architettura non la butti giù così facilmente. Loro hanno lavorato, o meglio hanno puntato, praticamente, quasi tutto sul HPC.
Lo schema HPG, è solo una variante, come lo erano le GPU nvidia rispetto alle tesla.
Considera che nvidia è ferma ai 7 GPC (lovelace 12), Intel ne ha 8, la differenza è la quantità di shader di ogni VE. Nvidia per GPC intregra 1536 cc (di cui oltre 1/3 però fa interi), Intel 512.

Avendo la struttura si poteva passare a VE da 16 shader, ma in questo casa andavano rivisti pure i collegamenti di memoria.
Nvidia invece, ha un rapporto semplice tra GPC e bus.
Come puoi vedere, anche AMD oltre ai 256bit non va.

Sulle voci, di oltre 512 EU, si , è vero, ma riguardano il chip HPC.

Questo:
1 tile: 512 EU
2 tile: 1024 EU
4 tile: 2048 EU.
Ma qua siamo in ambito HPC, di creare die mostruosi, dai consumi mostruosi, con spese mostruose è ben diverso, visti gli ambiti.
https://i.postimg.cc/cJDP20ZS/tile.png


Per Battlemage vedo facile un approccio MCM, poca spesa tanta resa... anche perchè il prossimo prodotto dovrà avere meno limiti degli attuali dato che la concorrenza avà prestazioni monstre. :eek:

Si probabile, molto probabile, l'architettura è espandibile.
Teoricamente il MCM si poteva già fare da ora, sbattendosene di consumare 450watt e con costi esorbitanti :p
Solo che mentre produceva quella cosa, Lovelace con il chip mid, se la mangiava, e non potrebbero certo farti pagare 1500 euro un chip pari alla 4070.:p
Ecco anche i limiti, soprattutto per una new entry, non è nvidia, che qualsiasi cosa faccia va bene, ed ha un mercato enorme da anni.


A tuo avviso mikael, in questa prima versione, Intel ha lavorato bene o è emersa comunque la poca esperienza in VGA diverse dalle integrate ? :)

A livello architetturale si, anche gli RT dovrebbero essere a livello, o quasi di quelli nvidia, e dovrebbero gestire tutte le operazioni, cosa che ad esempio AMD non fa.
A livello di calcolo, servono prove sul campo, per vedere l'IPC. Li si potrà valutare la vera bontà architettura, e non solo su carta.
Con un clock di 2,4ghz, teoricamente è in grado di calcolare ben 20TF, ovvero quelli di 3080 (effettivi) e 6800xt, ma se i rumors la posizionano con schede da 113-15tf, beh, la situazione a livello di IPC sarà scadente.:)

Maury
15-03-2022, 15:47
Beh si, considera che un'architettura non la butti giù così facilmente. Loro hanno lavorato, o meglio hanno puntato, praticamente, quasi tutto sul HPC.
Lo schema HPG, è solo una variante, come lo erano le GPU nvidia rispetto alle tesla.
Considera che nvidia è ferma ai 7 GPC (lovelace 12), Intel ne ha 8, la differenza è la quantità di shader di ogni VE. Nvidia per GPC intregra 1536 cc (di cui oltre 1/3 però fa interi), Intel 512.

Avendo la struttura si poteva passare a VE da 16 shader, ma in questo casa andavano rivisti pure i collegamenti di memoria.
Nvidia invece, ha un rapporto semplice tra GPC e bus.
Come puoi vedere, anche AMD oltre ai 256bit non va.

Sulle voci, di oltre 512 EU, si , è vero, ma riguardano il chip HPC.

Questo:
1 tile: 512 EU
2 tile: 1024 EU
4 tile: 2048 EU.
Ma qua siamo in ambito HPC, di creare die mostruosi, dai consumi mostruosi, con spese mostruose è ben diverso, visti gli ambiti.
https://i.postimg.cc/cJDP20ZS/tile.png



Si probabile, molto probabile, l'architettura è espandibile.
Teoricamente il MCM si poteva già fare da ora, sbattendosene di consumare 450watt e con costi esorbitanti :p
Solo che mentre produceva quella cosa, Lovelace con il chip mid, se la mangiava, e non potrebbero certo farti pagare 1500 euro un chip pari alla 4070.:p
Ecco anche i limiti, soprattutto per una new entry, non è nvidia, che qualsiasi cosa faccia va bene, ed ha un mercato enorme da anni.



A livello architetturale si, anche gli RT dovrebbero essere a livello, o quasi di quelli nvidia, e dovrebbero gestire tutte le operazioni, cosa che ad esempio AMD non fa.
A livello di calcolo, servono prove sul campo, per vedere l'IPC. Li si potrà valutare la vera bontà architettura, e non solo su carta.
Con un clock di 2,4ghz, teoricamente è in grado di calcolare ben 20TF, ovvero quelli di 3080 (effettivi) e 6800xt, ma se i rumors la posizionano con schede da 113-15tf, beh, la situazione a livello di IPC sarà scadente.:)

Prodotti HPC, ecco dove miravano con le versioni superiori :)

Credo proprio che future versioni MCM siano vitali per permettere ad Intel di ottenere boost prestazionali via via superiori, senza dover investire anni tra un prodotto e l'alto, MCM può aiutare Intel a fare tutto prima. Questa prima tornata è, presumo, più parca nei consumi, ma nulla vieta ad Intel di pestare con il consumo con la prossima gen, una versione da attaccare direttamente al generatore, vedi 4090, non la escludo. :)

Sull'IPC non mi aspetto molto, si parlava di prestazioni stile 3070, che poi dubito venga raggiunta, a meno di boost clock elevatissimi. :)

mikael84
15-03-2022, 21:02
Prodotti HPC, ecco dove miravano con le versioni superiori :)

Credo proprio che future versioni MCM siano vitali per permettere ad Intel di ottenere boost prestazionali via via superiori, senza dover investire anni tra un prodotto e l'alto, MCM può aiutare Intel a fare tutto prima. Questa prima tornata è, presumo, più parca nei consumi, ma nulla vieta ad Intel di pestare con il consumo con la prossima gen, una versione da attaccare direttamente al generatore, vedi 4090, non la escludo. :)

Sull'IPC non mi aspetto molto, si parlava di prestazioni stile 3070, che poi dubito venga raggiunta, a meno di boost clock elevatissimi. :)

Si, in quanto la densità gli permetterà di creare lo stesso chip con circa 200-225mm2, ma allo stesso tempo, se ad oggi è data per circa 220watt, con i 5nm, scordiamoci che vada a 110watt x2, ma a 170w x 2.

Quindi è anche probabile che, tutto rimanga così, ma con gli shader da 16 x un ottale di 8196 shader, magari saranno pronte le GDDR7 da 32gb/s, e si rimane sui 256 bit.

Sull'IPC per l'appunto, raggiungere la 3070, per lo più liscia sarebbe un fallimento totale.

Considera che avrà 128 rop's (320 g.pixel), la 3080 ne ha 96 (172 gpixel), siamo a quasi il 2x.
Potenza TF, 20,5 - potenza nvidia media (20,5), potenza media 3070 (14 tf)
Potenza geometrica : 8 primitive - 6 la 3080 - 6 la 3070.
Sui texel è più potente Intel, a livello teorico.

A numeri supera la 3080 praticamente, certo non mi aspetto cmq che la pareggi o la superi sul campo (nvidia è più rodata), ma per andare come la 3070, significa che l'IPC è piuttosto scarso.:)

Maury
16-03-2022, 11:38
Si, in quanto la densità gli permetterà di creare lo stesso chip con circa 200-225mm2, ma allo stesso tempo, se ad oggi è data per circa 220watt, con i 5nm, scordiamoci che vada a 110watt x2, ma a 170w x 2.

Quindi è anche probabile che, tutto rimanga così, ma con gli shader da 16 x un ottale di 8196 shader, magari saranno pronte le GDDR7 da 32gb/s, e si rimane sui 256 bit.

Sull'IPC per l'appunto, raggiungere la 3070, per lo più liscia sarebbe un fallimento totale.

Considera che avrà 128 rop's (320 g.pixel), la 3080 ne ha 96 (172 gpixel), siamo a quasi il 2x.
Potenza TF, 20,5 - potenza nvidia media (20,5), potenza media 3070 (14 tf)
Potenza geometrica : 8 primitive - 6 la 3080 - 6 la 3070.
Sui texel è più potente Intel, a livello teorico.

A numeri supera la 3080 praticamente, certo non mi aspetto cmq che la pareggi o la superi sul campo (nvidia è più rodata), ma per andare come la 3070, significa che l'IPC è piuttosto scarso.:)

A leggere i numeri sembra un prodotto notevole, e non poco, mi stupisce che poi a terra riesca a scarica così poca potenza (sarebbe interessante capire dove sia il collo) :confused: Ovvio, sempre che poi ai fatti Intel non stupisca tutti con pestazioni elevate...

La prossma, anche fosse un 170wx2 la vedo fattibile, gli "altri" non credo ci andranno giù leggeri con i Watt :D

Vediamo poi se i driver via via ottimizzati non riescano a darle una prospettiva diversa. :)

Ubro92
16-03-2022, 12:51
Sembra che intel abbia qualche progetto per le sue fonderie in Europa:

https://videocardz.com/press-release/intel-announces-new-semiconductor-fab-in-magdeburg-germany-and-its-80b-eur-european-union-investment-plans

mikael84
18-03-2022, 13:24
A leggere i numeri sembra un prodotto notevole, e non poco, mi stupisce che poi a terra riesca a scarica così poca potenza (sarebbe interessante capire dove sia il collo) :confused: Ovvio, sempre che poi ai fatti Intel non stupisca tutti con pestazioni elevate...

Non è così semplice lanciare una microarchitettura ed essere competitivi in tutto con rivali che hanno arc. rodate.
Per fare un esempio, a pari TF, maxwell va il 40% sopra kepler. Ti potrei spiegare anche il perchè, ma andiamo off.:)
Quindi al debutto vedremmo dove saranno i colli di bottiglia, e quelli di forza.
Nvidia ha un punto di forza interno nei warp, come i registri, ben 1024 per cuda, con kepler 256, con maxwell 512.
Se i warp, fossero da 8 cuda, con annessa molta più logica, i cuda passerebbero ad un notevole risultato di 2048 istruzioni.
Questo è un aspetto da non sottovalutare.:)



La prossma, anche fosse un 170wx2 la vedo fattibile, gli "altri" non credo ci andranno giù leggeri con i Watt :D

Beh quello si, ormai bisogna che rivedano le microarchitetture dall'interno, o altrimenti, si andrà sempre peggio. Considera ad esempio, che i 3nm, oltre ad un'altissima densità, avranno un efficienza del 25/30%.

Riguardo Intel MCM, considera però, che 2 chip assieme, significano un bus mastodontico a 512bit, che taglierebbero a 256/384bit, risparmiando non poca corrente, inoltre bisogna vedere gli eventuali lavori elettrici, guarda AMD con RDNA2...
Certo se buttano 2 stack così, prepariamoci a vedere alti.:p


Vediamo poi se i driver via via ottimizzati non riescano a darle una prospettiva diversa. :)

Questo è molto importante, magari inizialmente produce tot, ma col tempo riescono a sfruttarla al meglio.
Ricordi le vecchie AMD al lancio, spesso disastroso, poi, piano piano, release dopo release, vedevi aumenti del 5%, a volte 10% e così via.:)

Maury
23-03-2022, 11:59
Forse per Intel era meglio uscire un pochino prima, per sfruttare la grossa carenza di VGA, uscendo nel secondo trimestre, magari anche alla fine, si trova molto a ridosso di RDNA3 e Lovelace, con tutto cò che ne consegue :fagiano:

Sempe che un prezzo bassissimo non sia parte della strategia, non so, tipo un 400 Euro per la top gamma :)

Vash88
23-03-2022, 13:32
Forse per Intel era meglio uscire un pochino prima, per sfruttare la grossa carenza di VGA, uscendo nel secondo trimestre, magari anche alla fine, si trova molto a ridosso di RDNA3 e Lovelace, con tutto cò che ne consegue :fagiano:

Sempe che un prezzo bassissimo non sia parte della strategia, non so, tipo un 400 Euro per la top gamma :)
Fanno quello che possono. È un investimento multi generazionale in un settore dominato da un player con un secondo che fa piazza pulita di tutto quello che resta. Aspettarsi che siano competitivi o in testa fin dall'inizio è irrealistico. Le prime schede che produrranno dovranno combattere in salita per guadagnarsi fette di mercato e saranno sicuramente vendute in perdita, sia per i volumi ridotti che per gli enormi investimenti in capitale necessario per far partire l'operazione. Sono a tutti gli effetti degli gli ultimi arrivati. Mi aspetto che i prezzi siano rapportati in base a queste considerazioni. Del resto non hanno bisogno di vendere una quantità esagerata di schede perché questa generazione sarà praticamente beta-testing pubblico.

Ubro92
23-03-2022, 13:55
Forse per Intel era meglio uscire un pochino prima, per sfruttare la grossa carenza di VGA, uscendo nel secondo trimestre, magari anche alla fine, si trova molto a ridosso di RDNA3 e Lovelace, con tutto cò che ne consegue :fagiano:

Sempe che un prezzo bassissimo non sia parte della strategia, non so, tipo un 400 Euro per la top gamma :)

Considerando che i prezzi delle GPU stanno calando ora, è in realtà un ottimo momento.

Soprattutto per chi ha gpu con qualche anno alle spalle, e passare a gpu con potenza similiare a 3060ti-3070 è comunque un ottimo upgrade.

Sulle nuove gen di amd e nvidia non sappiamo nulla di come verranno gestite disponibilità e prezzi, e per la fascia media e bassa comunque se ne parla nel 2023 inoltrato quindi i margini ci sono ancora.

fraussantin
23-03-2022, 14:34
Forse per Intel era meglio uscire un pochino prima, per sfruttare la grossa carenza di VGA, uscendo nel secondo trimestre, magari anche alla fine, si trova molto a ridosso di RDNA3 e Lovelace, con tutto cò che ne consegue :fagiano:



Sempe che un prezzo bassissimo non sia parte della strategia, non so, tipo un 400 Euro per la top gamma :)Beh finché le scorte scarseggiano , non avranno problemi , poi se dovessero rimanere a scaffale le rtx e le RX , quindi a msrp o anche con sconti ovvio che dovranno fare prezzi aggressivi altrimenti chi se le piglia?

Quello che dobbiamo capire è se il "calo" della domanda a causa del rallentamento del mining o se è fisiologico perché ci stiamo avvicinando alla next gen e il tempo necessario per ammortizzare il costo diventa troppo poco.

Perché nel primo caso si può sperare in una next gen , si più costosa a listino , ma disponibile , nel secondo siamo nella cacca .

Maury
23-03-2022, 15:46
E' una questione di prezzo, se avranno un prezzo concorrenziale avranno mercato, altrimenti la gente cercherà magari di stare più al sicuro puntando sui soliti noti, soprattutto in virtù del continuo calo di prezzo dei prodotti.

Intel dovendo farsi conoscere dovrà invogliare la gente a puntare su di lei, portando sul mercato un grosso numero di esemplari per soddisfare ogni possibile cliente interessato :)

mikael84
23-03-2022, 16:14
Intel sta tardando anche per via dei driver, e dalla precedenza dei notebook.
Attualmente visti i tempi, e con il taboo dei driver non parte benissimo, però è pur vero che ha creato una roadmap a cadenza annuale, per poi cercare di consolidarsi.
Nel 2023 tra meteor lake e battlemage GPU potrà cominciare a mettersi a livello.
E' vero che Lovelace ed RDNA3 saranno abissalmente superiori rispetto ad ARK, ma le rispettive fasce medie-medio-basse, saranno lanciate inizio 2023 sicuramente. AMD addirittura potrebbe lanciare solo la 7700 nel 2022.

floop
30-03-2022, 20:45
ma scusate? nessuno parla delle Arc 3 ?

ninja750
01-04-2022, 10:54
https://i.postimg.cc/MT65Fn8b/Cattura.png

2250mhz confermati, sono in linea con la 6800 liscia per dire

come prima iterazione veramente notevole

confermati i 406mm2 e i 21,7b di transistor quindi superiore sia a 6700XT che 3070

credo molto poco ai 175w anche se di sola GPU ci potrebero stare, vorrebbe dire essere già efficenti come la concorrenza o addirittura meglio

mikael84
01-04-2022, 13:28
2250mhz confermati, sono in linea con la 6800 liscia per dire

come prima iterazione veramente notevole

confermati i 406mm2 e i 21,7b di transistor quindi superiore sia a 6700XT che 3070

credo molto poco ai 175w anche se di sola GPU ci potrebero stare, vorrebbe dire essere già efficenti come la concorrenza o addirittura meglio

Da quanto vedo, per rientrare su quei valori, sono scesi a 0,95v, e con 80° raggiunti già in queste condizioni (i 2400 sono fattibili, salvo vrm piombato).
le ram dovrebbero essere delle 18 gb/s (nel grafico risulterebbe 17,5).

AMD se la ride alla grande lato mobile.
https://www.hwupgrade.it/news/skvideo/amd-lancia-la-frecciata-a-intel-radeon-rx-6500m-fa-mangiare-la-polvere-ad-arc-a370m_106066.html

E' vero che AMD ha un clock nettamente più elevato di quasi 1ghz, però se Intel deve boostare a 1550 per restare in quei valori, non parte benissimo.

Maury
01-04-2022, 15:13
Non la vedo male, 2250 mhz a 987mv vuole dire poter andare ben oltre aumentando di poco di voltaggio. Lato temeparature nulla che non si possa calmierare con una dissipazione migliore. :)

Fossi in AMD aspetterei a prendere in giro Intel che poi finisce che il blu da le sue CPU solo a chi integra la GPU Arc e allora sono pifferi :asd:

mikael84
02-04-2022, 01:49
Non la vedo male, 2250 mhz a 987mv vuole dire poter andare ben oltre aumentando di poco di voltaggio. Lato temeparature nulla che non si possa calmierare con una dissipazione migliore. :)

Fossi in AMD aspetterei a prendere in giro Intel che poi finisce che il blu da le sue CPU solo a chi integra la GPU Arc e allora sono pifferi :asd:

No male no, hanno trovato un compromesso, tra dissi e consumi. Le custom in overvolt, saranno per forza ben più energivore. Ad 1,05v e 2400, dovevano rivedere molte cose.
Lato notebook, ci passa il 65%, troppo...è vero che una AMD sta a circa 5TF e l'altra a 3TF, ma a pari nm, e TDP equivalenti, intel è in netto svantaggio.

ninja750
20-04-2022, 10:34
annunciato altro ritardo del lancio, primo Q3 (ricordate vega, sempre koduri? :asd: )

in sostanza forse lanceranno giugno/luglio le prime limited edition A770 che non saranno le top (A780) ma quasi con 16gb vram vs le 12gb non-limited (~3060ti)

floop
20-04-2022, 14:44
annunciato altro ritardo del lancio, primo Q3 (ricordate vega, sempre koduri? :asd: )

in sostanza forse lanceranno giugno/luglio le prime limited edition A770 che non saranno le top (A780) ma quasi con 16gb vram vs le 12gb non-limited (~3060ti)

vabbè c'è tempop dato che le nuove arrivano in inverno...

ninja750
26-04-2022, 10:19
lineup aggiornata

https://i.postimg.cc/3JsNTbDr/Screenshot-2022-04-26-at-10-18-05-Intel-Arc-Alchemist-lineup-rumored-to-include-7-desktop-models-V.png

quella del lancio dovrebbe essere la A770 8gb

floop
26-04-2022, 10:48
lineup aggiornata

https://i.postimg.cc/3JsNTbDr/Screenshot-2022-04-26-at-10-18-05-Intel-Arc-Alchemist-lineup-rumored-to-include-7-desktop-models-V.png

quella del lancio dovrebbe essere la A770 8gb

a luglio vero ?

Ubro92
26-04-2022, 13:52
Chissà se faranno una A760 con 448EU e 12GB di vram :sofico:

mikael84
26-04-2022, 22:07
Se entro l'anno riescono a debuttare, possono ancora dire la loro, ma in fascia bassa.
AD106 arriverà probabilmente q1 2023 e la 7600 ancora non è prevista.
In fascia media, solo navi33 (navi21 circa) pare uscire a fine anno.

Da battlemage, architettura che debutterà in forma base con meteor lake, pare che abbiano intravisto in un info 4 tile (MCM 4) con 1280cc x slice.
https://i.postimg.cc/mrgZLpYV/gpu-i.png

Jova18
27-04-2022, 16:21
Salve, io avevo capito tra un mese

floop
10-05-2022, 14:51
A quanto pare solo a settembre le vedremo... e forse neanche la top di gamma.

Ahia dato che arrivano le nvidia 4000 e ati rnda3

StylezZz`
11-05-2022, 10:43
Potete chiudere il thread :asd:

Interesse e curiosità completamente scemati per quanto mi riguarda...

Ubro92
11-05-2022, 10:53
Potete chiudere il thread :asd:

Interesse e curiosità completamente scemati per quanto mi riguarda...

Più che altro servono le gpu e le review...

Finchè non escono si parla di aria fritta, si possono fare dei presupposti su quanto andranno ma l'architettura è relativamente nuova e non si sa come andrà e come scalerà...

Ubro92
11-05-2022, 11:08
A quanto pare solo a settembre le vedremo... e forse neanche la top di gamma.

Ahia dato che arrivano le nvidia 4000 e ati rnda3


Vabbè le nuove gpu nvidia e amd saranno solo per la fascia top, le mid ed entry level se ne parla del 2023 inoltrato...

Si parlava anche di un refresh di RDNA2 per la fascia media.

Quindi l'introduzione delle intel entro l'anno rimane comunque concorrenziale nella fascia fino alla 3070, soprattutto se contribuisce a ridurre i prezzi e a vedere qualche promo...

ninja750
18-05-2022, 11:27
niente XeSS questa settimana

ninja750
31-05-2022, 10:13
pazientate :O ci siamo quasi

https://videocardz.com/ezoimgfmt/cdn.videocardz.com/1/2022/05/Intel-ARC-A3-DESKTOP-768x581.png?ezimgfmt=ng:webp/ngcb1

ieri hanno messo e tolto la possibilità di scaricare i driver per A3 (A310 A380) che se non cambierà nulla saranno le prime a uscire in cina tra un mese :O

in diretta competizione con le RTX4090TI :O

Kang Johnson
31-05-2022, 10:22
Benvenga un terzo attore, soprattutto se riesce a produrre in casa aumentando così l'offerta reale di prodotti sul mercato (leggasi, calmierare i prezzi)

Malek86
02-06-2022, 12:08
C'è online una preview di un laptop con i7-12700H e Arc 370M con alcuni benchmark, non so se posso linkare.

Come prestazioni non sembra il massimo, ho fatto alcuni degli stessi test sul mio portatile con Ryzen 5500U e GTX 1650 GDDR6 e ottengo valori abbastanza più alti. Tipo, 52fps contro 42fps per Shadow of the Tomb Raider (DX12), e 68fps contro 59fps per Endwalker (DX11). Considerando che entrambe le schede vanno a 35W, ma la GTX è 12nm invece di 6nm, la cosa potrebbe essere problematica per Intel. Poi ovviamente la banda a 64 bits non aiuta, però allora avrebbero potuto mettere almeno 96 bits, come per il modello desktop.

Però ricordo che avevo visto un'altra preview qualche mese fa con un valore sensibilmente maggiore per Shadow of the Tomb Raider, quindi non so. Mi sa che bisognerà aspettare che arrivono ufficialmente sul mercato.

mikael84
02-06-2022, 12:54
C'è online una preview di un laptop con i7-12700H e Arc 370M con alcuni benchmark, non so se posso linkare.

Come prestazioni non sembra il massimo, ho fatto alcuni degli stessi test sul mio portatile con Ryzen 5500U e GTX 1650 GDDR6 e ottengo valori abbastanza più alti. Tipo, 52fps contro 42fps per Shadow of the Tomb Raider (DX12), e 68fps contro 59fps per Endwalker (DX11). Considerando che entrambe le schede vanno a 35W, ma la GTX è 12nm invece di 6nm, la cosa potrebbe essere problematica per Intel. Poi ovviamente la banda a 64 bits non aiuta, però allora avrebbero potuto mettere almeno 96 bits, come per il modello desktop.

Però ricordo che avevo visto un'altra preview qualche mese fa con un valore sensibilmente maggiore per Shadow of the Tomb Raider, quindi non so. Mi sa che bisognerà aspettare che arrivono ufficialmente sul mercato.

Si che puoi postarli.:)

Cmq è naturale che la 1650 sia abbastanza superiore, hanno gli stessi shader, ma a livello di IPC nvidia è sicuramente superiore. Inoltre la Intel ha un misero bus a 64 bit contro quello a 128 della 1650, di conseguenza è monca di banda.
A livello tecnico è inferiore.

Malek86
02-06-2022, 13:15
Si che puoi postarli.:)

Cmq è naturale che la 1650 sia abbastanza superiore, hanno gli stessi shader, ma a livello di IPC nvidia è sicuramente superiore. Inoltre la Intel ha un misero bus a 64 bit contro quello a 128 della 1650, di conseguenza è monca di banda.
A livello tecnico è inferiore.

Ok, ecco:

https://www.forbes.com/sites/davealtavilla/2022/06/01/intel-arc-mobile-graphics-performance-preview-a-new-player-enters-the-gpu-game/?sh=441a0518125e

In realtà la 1650 GDDR6 ha "solo" 896 shader, quindi almeno da quel punto di vista è un pochino inferiore. Il mio portatile poi è un thin portable, e ho notato che la scheda è più comparabile ad una 1650 Max-Q come prestazioni. E anche il mio processore è scarsino :fagiano:

Penso che il problema principale della 370M sia la banda passante... però allora mi chiedo perchè non aumentarla un po'. C'era già la 350M a 64 bits.

mikael84
02-06-2022, 13:40
Ok, ecco:

https://www.forbes.com/sites/davealtavilla/2022/06/01/intel-arc-mobile-graphics-performance-preview-a-new-player-enters-the-gpu-game/?sh=441a0518125e

In realtà la 1650 GDDR6 ha "solo" 896 shader, quindi almeno da quel punto di vista è un pochino inferiore. Il mio portatile poi è un thin portable, e ho notato che la scheda è più comparabile ad una 1650 Max-Q come prestazioni. E anche il mio processore è scarsino :fagiano:

Penso che il problema principale della 370M sia la banda passante... però allora mi chiedo perchè non aumentarla un po'. C'era già la 350M a 64 bits.

Sicuro che abbia 896 cuda? A me risulta che i chip note utilizzino il chip full (2 GPC completi), mentre quella desktop, ha un TPC disabilitato per rese, come la 3060m.

In ogni caso nvidia a livello di IPC è superiore, tanto che il modello da 20TF si stima viaggi come la 3070 da 14tf (tf effettivi scorporati dalle INT), altrimenti raggiungerebbe la 3080 (20,5).

Sui clock, la desktop è data per 2,2, la mobile gira a 1500, infatti la stessa amd l'ha perculata:
https://cdn.videocardz.com/1/2022/04/AMD-Radeon-RX-6500M-vs-ARC-A370M-scaled.jpg

Riguardo la ram, si, si può fare a patto di usare un chip a 4 render slice disabilitato.
Ogni 2 render (1024 shader), sono 64bit.

Come vedi dal grafico, la parte sinistra è composta da 2048 shader e 128bit.:)
https://www.hwupgrade.it/forum/showpost.php?p=47779835&postcount=204

Malek86
02-06-2022, 17:52
Sul GPU-Z mi dice che ha 896 cuda. Su internet trovo informazioni contrastanti, pare che dipenda dal modello specifico. Considerando le prestazioni della mia scheda (va il 10-15% in meno della media delle 1650 laptop), penso sia credibile che sia il modello castrato.

Comunque quel grafico di AMD è interessante... ora voglio vedere come gira Total War Troy sul mio :O

mikael84
02-06-2022, 21:56
Sul GPU-Z mi dice che ha 896 cuda. Su internet trovo informazioni contrastanti, pare che dipenda dal modello specifico. Considerando le prestazioni della mia scheda (va il 10-15% in meno della media delle 1650 laptop), penso sia credibile che sia il modello castrato.

Comunque quel grafico di AMD è interessante... ora voglio vedere come gira Total War Troy sul mio :O

Probabilmente hanno utilizzato qualche chip di scarto, può succedere, in quanto mi ricordavo fosse full quel chip.
Infatti:
https://www.notebookcheck.net/NVIDIA-GeForce-GTX-1650-Laptop-GPU.416044.0.html

https://www.techpowerup.com/gpu-specs/geforce-gtx-1650-mobile.c3367

Lato notebook per ora intel malaccio, clock troppo bassi per tale PP e ram vecchia gen, soprattutto con bus così miseri.
Considerando che dovrebbero scontrarsi con Ampere neppure con turing.

Malek86
04-06-2022, 10:14
Probabilmente hanno utilizzato qualche chip di scarto, può succedere, in quanto mi ricordavo fosse full quel chip.
Infatti:
https://www.notebookcheck.net/NVIDIA-GeForce-GTX-1650-Laptop-GPU.416044.0.html

https://www.techpowerup.com/gpu-specs/geforce-gtx-1650-mobile.c3367

Lato notebook per ora intel malaccio, clock troppo bassi per tale PP e ram vecchia gen, soprattutto con bus così miseri.
Considerando che dovrebbero scontrarsi con Ampere neppure con turing.

Infatti anche su quel sito dicono:

"Starting March 2020, the GTX 1650 Mobile is also available with fast 12 Gbits GDDR6 graphics memory (N18P-G61, 896 shaders) as a refresh."

Anche se ho visto pure dei video dove la GDDR6 va più veloce del GDDR5, quindi probabilmente ci sono a giro modelli in entrambe le configurazioni. Considerando che la mia scheda va a 35W, mentre normalmente la GDDR6 dovrebbe essere a 40W, sono abbastanza sicuro di avere la versione con cuda ridotti.

Intanto ho provato anche Shadow of War (faccio 55fps di media) e Total War Troy (non ho ben chiaro quale benchmark usasse AMD nel suo grafico, ma la mia media più bassa è 71fps).

Invece, stranamente quest'altra preview mostra un risultato molto più alto per Shadow of the Tomb Raider per la 370M, e un punteggio di Timespy che per me è inavvicinabile... anche se qui bisognerebbe capire se hanno usato il risultato generale invece che quello della sola GPU, perchè allora io sarei decisamente svantaggiato.

https://www.pcworld.com/article/698534/tested-intels-arc-a370m-laptops-already-compete-with-nvidia-and-amd.html

A naso mi pare che Intel non se la cavi male nei giochi DX12, un po' meno nei DX11.

ninja750
15-06-2022, 12:55
ci siamo :eek: :eek: al via oggi le vendite

ecco la prima retail ufficiale GUNNIR

https://i.postimg.cc/9MwRRtSH/GUNNINR-A380-2.webp

è una A380 6GB (quindi fascia bassa) 2450mhz 75w ma con connettore ausiliario

la fascia è RX6400

MRSP 153$

Ubro92
15-06-2022, 12:58
Daje almeno si inizia a vedere qualche scatola :sofico:

mikael84
15-06-2022, 13:11
75-100 watt con l'8 pin:D