PDA

View Full Version : Intel verso lo sviluppo di GPU discrete? Nomi in codice Arctic Sound e Jupiter Sound


Redazione di Hardware Upg
16-01-2018, 15:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/intel-verso-lo-sviluppo-di-gpu-discrete-nomi-in-codice-arctic-sound-e-jupiter-sound_73553.html

Intel starebbe sviluppando delle proprie GPU per sostituire le AMD Radeon RX Vega integrate su alcuni processori della serie Core. La mente dietro il progetto sarebbe proprio l'ex-AMD Raja Koduri

Click sul link per visualizzare la notizia.

demon77
16-01-2018, 15:14
:D :D :D Alla intel sono dei siluri.. solo l.oro possono chiamare SOUND una scheda video.

Vaaaaaaa beh. Vediamo che succede.. la concorrenza fa sempre bene, ma spodestare Nvidia in questo settore è dura.. anche per Intel.

nickname88
16-01-2018, 15:22
GPU discrete per gaming o solamente per il mondo professionale ?
Perchè "sound" ?

DakmorNoland
16-01-2018, 15:26
Imparassero prima a fare processori... altro che GPU dedicate. :rolleyes:

Dopo anni di ricavi senza senso, non sono riusciti nemmeno a migliorare la sicurezza dei propri processori e poi si è visto cos'è successo con Meltdown e Spectre.

Mi vergogno ad aver comprato un i5 750 e poi un i5 6600k.

nickname88
16-01-2018, 15:28
Imparassero prima a fare processori... altro che GPU dedicate. :rolleyes:

Dopo anni di ricavi senza senso, non sono riusciti nemmeno a migliorare la sicurezza dei propri processori e poi si è visto cos'è successo con Meltdown e Spectre.

Mi vergogno ad aver comprato un i5 750 e poi un i5 6600k.Si infatti sono i migliori prodotti prestazionalmente parlando da 10 anni, anche nonostante le vulnerabilità lo scettro ce l'han sempre loro. Riuscire a fare prodotti sicuri ? E chi ce l'ha fatta ? Sia AMD che ARM sono colpiti da Spectre.
Polemica inutile poi visto che dalla prossima generazione queste vulnerabilità saran corrette via HW.

Ti vergogni ? Preferivi prendere Bulldozer e Phenom ? :rolleyes:

riuzasan
16-01-2018, 15:29
Ogni 5 anni esce la stessa canzone ... basta.

demon77
16-01-2018, 15:38
Ogni 5 anni esce la stessa canzone ... basta.

AH! ECCO PERCHE' SI CHIAMANO SOUND!!! :D :D :D

Cfranco
16-01-2018, 15:44
Ogni 10 anni Intel deve fare una GPU:
i740 1998
Larrabee 2008
Sound 2018

Le prime due son venute da schifo, avranno imparato adesso ?

nickname88
16-01-2018, 15:51
Ogni 10 anni Intel deve fare una GPU:
i740 1998
Larrabee 2008
Sound 2018

Le prime due son venute da schifo, avranno imparato adesso ?
Insomma, non è che se uno fallisce diverse volte è poi destinato a fallire in eterno, loro contano ovviamente di azzeccarci prima o poi. Se dobbiamo ragionare con questa mentalità metà della popolazione dovrebbe impiccarsi.

DakmorNoland
16-01-2018, 15:55
Si infatti sono i migliori prodotti prestazionalmente parlando da 10 anni, anche nonostante le vulnerabilità lo scettro ce l'han sempre loro. Riuscire a fare prodotti sicuri ? E chi ce l'ha fatta ? Sia AMD che ARM sono colpiti da Spectre.
Polemica inutile poi visto che dalla prossima generazione queste vulnerabilità saran corrette via HW.

Ti vergogni ? Preferivi prendere Bulldozer e Phenom ? :rolleyes:

Intanto gli ultimi AMD sono vulnerabili solo a una delle due varianti di Spectre e solo su kernel Linux, che credo sia già stato patchato via software, niente di che. Invece Meltdown era un baco grosso come una casa!!!

Sì sono d'accordo che AMD abbia fatto uscire processori scarsi, ma Intel è piena di soldi e potevano lavorare di più sulla sicurezza. Se vedi il numero di rilasci di bios con microcode corretto per schede madri Intel (già prima di Meltdown), c'è da mettersi le mani nei capelli.

Grandi prestazioni sì, ma zero sicurezza! Poi dopo le patch sei ancora sicuro che un i7 7xxx o 8xxx non perda contro un Ryzen 7? Io non tanto.

coschizza
16-01-2018, 15:58
Sia AMD che ARM sono colpiti da Spectre.
Polemica inutile poi visto che dalla prossima generazione queste vulnerabilità saran corrette via HW.

Ti vergogni ? Preferivi prendere Bulldozer e Phenom ? :rolleyes:

ci pui aggiungere anche IBM, anche le cpu power hanno questo bug, e forse anche le sparc ma oracle ancora oggi si rifiuta di dare una risposta ufficiale, chissa perche!

coschizza
16-01-2018, 15:59
Ogni 10 anni Intel deve fare una GPU:
i740 1998
Larrabee 2008
Sound 2018

Le prime due son venute da schifo, avranno imparato adesso ?

Larrabee non era una scheda video e non è mai stata venduta quindi come la fai a includere? era un progetto che ha avuto come seguito le schede xeon phi

nickname88
16-01-2018, 16:09
Intanto gli ultimi AMD sono vulnerabili solo a una delle due varianti di Spectre e solo su kernel LinuxAMD è vulnerabile a entrambe le varianti e anche su Windows.
Prima semplicemente non era stato accertato, adesso invece sì.

https://www.techpowerup.com/240575/amd-confirms-they-are-affected-by-spectre-too

Sì sono d'accordo che AMD abbia fatto uscire processori scarsi, ma Intel è piena di soldi e potevano lavorare di più sulla sicurezza. Se vedi il numero di rilasci di bios con microcode corretto per schede madri Intel (già prima di Meltdown), c'è da mettersi le mani nei capelli.Perchè lavorare sulla sicurezza se si pensava fossero già sicuri ? La vulnerabilità Meltown è saltata fuori dopo ben 10 anni, quindi forse non era così facile da scovare.
Parli come se le prestazioni non fossero il fulcro di tutto, ovvio che vengono prima di tutto, il fatto che Intel quest'anno sia incappata in questa faccenda non toglie che con la prossima serie non saranno vulnerabili forse nemmeno a spectre.

Grandi prestazioni sì, ma zero sicurezza! Poi dopo le patch sei ancora sicuro che un i7 7xxx o 8xxx non perda contro un Ryzen 7? Io non tanto.Le vulnerabilità han colpito le interazioni con il disco, gaming, compressioni, decompressioni, conversioni e rendering hanno risentito di poco. Le proposte Intel Coffe Lake come performance assolute rimangono le migliori nonostante tutto.

demon77
16-01-2018, 16:30
Larrabee non era una scheda video e non è mai stata venduta quindi come la fai a includere? era un progetto che ha avuto come seguito le schede xeon phi

A dirla tutta.. Larrabee voleva essere la prima ed unica scheda video 100% compatibile X86 che nei sogni bagnati di intel avrebbe rivoluzionato il settore pc.

Poi è saltato fuori che andava da schifo e hanno recuperato il progetto riconvertendolo come "scheda specifica di supporto a calcolo fortemente parallelizzabili".. giusto per non buttare tutto nel cesso.

Ci hanno provato, lode a loro. E' andata male, peccato.
Magari questo è il giro buono..

nickname88
16-01-2018, 16:38
Nope.

AMD è vulnerabile a Spectre 1. Per quanto concettualmente potrebbe esserlo non è ancora stata replicata la vulnerabilità Spectre 2 a causa di differenze di implementazione rispetto alle microarchitetture Intel, mentre non è vulnerabile a Meltdown per lo stesso motivo.

E' stata replicata invece ed è AMD a dirlo :

http://www.ansa.it/sito/notizie/tecnologia/software_app/2018/01/12/amd-vulnerabile-alle-2-varianti-spectre_1e52aa96-7c5c-4000-9297-84c806443643.html
https://hardware.hdblog.it/2018/01/12/Meltdown-Spectre-AMD-Ryzen-Epyc-pathc-fix/
https://www.techarp.com/articles/amd-cpus-vulnerable-spectre-2/

ROMA - Amd è vulnerabile a entrambe le varianti di "Spectre", la falla di sicurezza che coinvolge i processori dei tre colossi del settore (Intel, Amd e Arm). Lo ha reso noto la compagnia, che inizialmente aveva parlato di "rischio quasi zero" per una delle due varianti.

bagnino89
16-01-2018, 16:38
"Discreto" non si può proprio leggere.

+Benito+
16-01-2018, 16:51
Considerando che Intel è leader indiscussa a livello di gestione del silicio, sia con progetti High Power, sia nella gestione del consumo energetico, a livello tecnico può permettersi quasi tutto quello che vuole.
E' un periodo peraltro molto delicato, ed il mercato dele GPU si sta dividendo in tre categorie ben distinte:
- Embedded, con prestazioni ormai molto elevate e sufficienti per una fascia di persone crescente
- Enthusiast, in una fascia con maggiori margini, ma dai numeri molto piccoli
- Calcolo, con margini molto elevati e volumi probabilmente anche maggiori del mercato videoludico di alta fascia.

Nel primo settore ha una posizione forte e consolidata, nel secondo settore non è presente e nel terzo zoppica fortemente, in quanto i progetti many cores intel si sono dimostrati perdenti alla grande.

Mi chiedo se questa notizia vada letta nell'ottica dello sviluppo di soluzioni discrete di alta gamma, oppure nell'ottica dell'integrazione spinta, con nuovi form factor, di CPU e GPU "potenti" sullo stesso socket. L'espierienza che sta facendo con AMD mi sembra che porti a pensare più a quest'ultima soluzione, che garantisce peraltro di vendere in un colpo solo tutto il sistema (mainboard, cpu, gpu e ram) con ottimi margini di guadagno e costi di distribuzione molto minori.

Lampetto
16-01-2018, 16:52
Ridendo e scherzando Intel ha il 67% del mercato GPU in mano, anche se le loro sono solo integrate, non è proprio messa male...
Poi concordo che non sono riusciti a produrre una GPU discreta degna di questo nome, ma è anche vero che le prossime APU AMD potrebbero impensierire Intel proprio nel loro terreno, conseguenza per cui Intel prepara la contromossa nelle discrete...

IMHO

MiKeLezZ
16-01-2018, 17:00
Sta cacata l'ho già sentita all'uscita della X3000 nel 2006 (che era la solita GMA cacosa) e poi dopo ancora nel 2010 con l'uscita della HD Graphics (sempre la solita GMA cacosa, solo con doppio di unità elaborativa). Eccola riproposta a cadenza.

Dopo lo scandalo Meltdown gli stakeholder giustamente si staranno facendo due domande, visto che in contemporanea Intel è uscita con chip con grafica AMD (in pratica ha dato modo di far capire che non è buona né a fare le CPU né le GPU...).

Il problema è che Intel le VGA non son veramente buoni a farle. O acquistano un'azienda o siamo alla solita GMA cacosa (v.4) con driver buggati.

coschizza
16-01-2018, 17:06
Sta cacata l'ho già sentita all'uscita della X3000 nel 2006 (che era la solita GMA cacosa) e poi dopo ancora nel 2010 con l'uscita della HD Graphics (sempre la solita GMA cacosa, solo con doppio di unità elaborativa). Eccola riproposta a cadenza.

Dopo lo scandalo Meltdown gli stakeholder giustamente si staranno facendo due domande, visto che in contemporanea Intel è uscita con chip con grafica AMD (in pratica ha dato modo di far capire che non è buona né a fare le CPU né le GPU...).

Il problema è che Intel le VGA non son veramente buoni a farle. O acquistano un'azienda o siamo alla solita GMA cacosa (v.4) con driver buggati.

le HD Graphics sono ottime fino a prova contraria sono usate da centinaia di milioni di pc soprattutto in azienda con ottimi risultati, costo basso consumi miseri e intergrazione perfetta. Insomma una cosa è quello che pensi una cosa le cose nei fatti reali.

Solo io ho in gestione poco piu di 3000 pc con HD Graphics e sai quanti problemi ho avuto nelgi ultimi 8 anni? nessuno ne hardware ne driver e molti di questi pc sono pure in multimonitor. Pensa che gli unici problemi che ho avuto in azienda è sulle schede quadro delle workstation grafiche, pensa un po schede che costano come 4 pc completi mesi assieme.

MiKeLezZ
16-01-2018, 17:14
le HD Graphics sono ottime fino a prova contraria sono usate da centinaia di milioni di pc soprattutto in azienda con ottimi risultati, costo basso consumi miseri e intergrazione perfetta. Insomma una cosa è quello che pensi una cosa le cose nei fatti reali.

Solo io ho in gestione poco piu di 3000 pc con HD Graphics e sai quanti problemi ho avuto nelgi ultimi 8 anni? nessuno ne hardware ne driver e molti di questi pc sono pure in multimonitor. Pensa che gli unici problemi che ho avuto in azienda è sulle schede quadro delle workstation grafiche, pensa un po schede che costano come 4 pc completi mesi assieme.I problemi sono con gli applicativi 3D (l'ambito in cui, da articolo, Intel vorrebbe sfondare), mica nella gestione del desktop o in ambiente 2D (diamine, se sbagliasse pure quella, dopo 20 anni che lo fa, visto che possiedo un P-III con grafica integrata... credo una 750 datata 1999... sarebbe grave veramente).

Lampetto
16-01-2018, 17:14
Sta cacata l'ho già sentita all'uscita della X3000 nel 2006 (che era la solita GMA cacosa) e poi dopo ancora nel 2010 con l'uscita della HD Graphics (sempre la solita GMA cacosa, solo con doppio di unità elaborativa). Eccola riproposta a cadenza.

Dopo lo scandalo Meltdown gli stakeholder giustamente si staranno facendo due domande, visto che in contemporanea Intel è uscita con chip con grafica AMD (in pratica ha dato modo di far capire che non è buona né a fare le CPU né le GPU...).

Il problema è che Intel le VGA non son veramente buoni a farle. O acquistano un'azienda o siamo alla solita GMA cacosa (v.4) con driver buggati.

C'è una certa Imagination Technologies fresca del calcio in culo ricevuto da Apple, sono a buon mercato per l'acquisto :D

MiKeLezZ
16-01-2018, 17:17
C'è una certa Imagination Technologies fresca del calcio in culo ricevuto da Apple, sono a buon mercato per l'acquisto :DGià gli ha fatto i chippettini con decoding h.264 e h.265 in hardware per gli Atom, farebbe veramente un bell'acquisto

Ma da quel che vedo la politica Intel è di tagli o joint venture, non di acquisti, quindi la vedo dura

demon77
16-01-2018, 17:19
Ridendo e scherzando Intel ha il 67% del mercato GPU in mano

Eh cavolo.. hai ragione.
In effetti qui siamo portati a ragionare solo con schede discrete per gaming o lavoro.. ma è la parte più piccola de mercato (anche se molto redditizia)

La stragrande maggioranza dei pc da ufficio o di casa vive serena con la gpu intel integrata nella CPU.

calabar
16-01-2018, 17:51
E' stata replicata invece ed è AMD a dirlo :
http://www.ansa.it/sito/notizie/tec...c806443643.html
https://hardware.hdblog.it/2018/01/...Epyc-pathc-fix/
https://www.techarp.com/articles/am...able-spectre-2/
Piuttosto strano comunque che proprio gli articoli che citi pongono la cosa in maniera molto differente.

Innanzi tutto pare che la vulnerabilità a Spectre 2 sia solo teorica, quindi no, non è stata replicata. Del resto, come detto fin dall'inizio, l'architettura AMD rende molto più difficile applicare Spectre 2 (ma non impossibile, intendiamoci) rispetto a quella Intel.

Seconda cosa, pare che AMD non abbia prima detto una cosa e poi l'abbia negata, ma che abbia semplicemente detto più esplicitamente che i processori sono potenzialmente vulnerabili e che stanno facendo uscire le patch.
Lo stesso articolo dell'ANSA che citi si conclude dicendo che AMD ha diramato una "comunicazione in cui evidenzia che non c'è stato alcun cambiamento di posizione rispetto alla vulnerabilità dei suoi processori a Spectre".

In definitiva AMD è vulnerabile solo a Spectre.
- per la sua prima variante secondo loro risolvibile con l'aggiornamento del sistema operativo e senza impatto prestazionale (o comunque trascurabile),
- per la seconda variante occorrerebbero sia una patch del sistema operativo che dell'hardware, ma essendoci un significativo impatto prestazionale tali patch sono opzionali, ritenendo AMD il rischio estremamente basso.

Se poi ho capito male correggetemi.

Ren
16-01-2018, 18:00
https://thumbs.gfycat.com/BraveWhichDolphin-size_restricted.gif

Con lui in squadra possono farcela...:sofico:

MiKeLezZ
16-01-2018, 18:28
Piuttosto strano comunque che proprio gli articoli che citi pongono la cosa in maniera molto differente.

Innanzi tutto pare che la vulnerabilità a Spectre 2 sia solo teorica, quindi no, non è stata replicata. Del resto, come detto fin dall'inizio, l'architettura AMD rende molto più difficile applicare Spectre 2 (ma non impossibile, intendiamoci) rispetto a quella Intel.

Seconda cosa, pare che AMD non abbia prima detto una cosa e poi l'abbia negata, ma che abbia semplicemente detto più esplicitamente che i processori sono potenzialmente vulnerabili e che stanno facendo uscire le patch.
Lo stesso articolo dell'ANSA che citi si conclude dicendo che AMD ha diramato una "comunicazione in cui evidenzia che non c'è stato alcun cambiamento di posizione rispetto alla vulnerabilità dei suoi processori a Spectre".

In definitiva AMD è vulnerabile solo a Spectre.
- per la sua prima variante secondo loro risolvibile con l'aggiornamento del sistema operativo e senza impatto prestazionale (o comunque trascurabile),
- per la seconda variante occorrerebbero sia una patch del sistema operativo che dell'hardware, ma essendoci un significativo impatto prestazionale tali patch sono opzionali, ritenendo AMD il rischio estremamente basso.

Se poi ho capito male correggetemi.Le architetture AMD sono vulnerabili a spectre v1 il quale richiede un semplice patch del SO e spectre v2 il quale richiede un patch del SO e un aggiornamento del microcode della CPU.

Le vulnerabilità a spectre v2 è solo speculativa in quanto non esistono documentazioni a riguardo (ovvero al momento nessuno si è preso briga di exploitare tale bug), ma ovviamente è da correggere per il futuro

Per questo AMD adesso sta rilasciando aggiornamenti AGESA ai produttori di motherboard

Il microcode della CPU viene aggiornando montando un BIOS aggiornato che integri tale codice (il che è a discrezione dei produttori di motherboard).

Ovviamente le prossime release di motherboard (grossomodo le X470 B450 etc) integreranno tutte tale codice aggiuntivo nel BIOS stesso con cui vengono vendute.

Alla fine è semplicemente un errata come centinaia di altri esistono sulle CPU, e viene patchato con le modalità classiche in uso da decenni.. la differenza è che è solo un po' più grave e presente nel 90% delle CPU esistenti

cdimauro
16-01-2018, 19:54
Certo che fanno tenerezza i fanboy AMD, che o non hanno capito la portata del nuovo corso di Intel riguardo alle GPU (che non ha nulla a che vedere col passato, e i segnali in merito sarebbero dovuti esser eloquenti) oppure cercano di buttarla in farsa perché si stanno cacando sotto perché un nuovo, agguerrito, concorrente potrebbe rubare ulteriori quote di mercato alla loro amata marca.

@MiKeLezZ: il fatto che non ci sia ancora un exploit disponibile NON vuol dire che le CPU di AMD non siano potenzialmente affette dalla seconda variante di Spectre. Non si cambia a cuor leggero il microcodice di un processore, che è un componente delicatissimo, col rischio di malfunzionamenti e/o perdite prestazionali. Difatti AMD ha pure cambiato dichiarazione, discostandosi dall'iniziale "probabilità prossime a zero".

MiKeLezZ
16-01-2018, 20:09
Certo che fanno tenerezza i fanboy AMD, che o non hanno capito la portata del nuovo corso di Intel riguardo alle GPU (che non ha nulla a che vedere col passato, e i segnali in merito sarebbero dovuti esser eloquenti) oppure cercano di buttarla in farsa perché si stanno cacando sotto perché un nuovo, agguerrito, concorrente potrebbe rubare ulteriori quote di mercato alla loro amata marca.Se ce l'hai con me io uso un intel+igp/nvidia desktop e intel+igp laptop.
Quindi posso parlare su chi mi pare come mi pare.

Te invece mi ricordo avevi legami professionali con Intel, il che si evince anche dalle tue risposte notoriamente sempre pro-Intel.


@MiKeLezZ: il fatto che non ci sia ancora un exploit disponibile NON vuol dire che le CPU di AMD non siano potenzialmente affette dalla seconda variante di Spectre. Non si cambia a cuor leggero il microcodice di un processore, che è un componente delicatissimo, col rischio di malfunzionamenti e/o perdite prestazionali. Difatti AMD ha pure cambiato dichiarazione, discostandosi dall'iniziale "probabilità prossime a zero".L'italiano è una bellissima lingua di cui voi programmatori di codice informatico evidentemente avete perso l'uso.

Questo è quello che ho scritto:
Le architetture AMD sono vulnerabili a spectre v1 [...] e spectre v2

Quindi, ti consiglio tazzone di camomilla e a letto presto stasera ;)

p.s. Nessuno cambia il "microcodice di un processore"... Come nessuno "ruba il sole", stai sereno (?!)

Lista errata Intel:
https://www.intel.com/content/dam/www/public/us/en/documents/specification-updates/7th-gen-core-family-spec-update.pdf

Uno a caso:
https://www.hwupgrade.it/forum/attachment.php?attachmentid=93399&stc=1&d=1516133373

cdimauro
16-01-2018, 20:17
Se ce l'hai con me io uso un intel+igp/nvidia desktop e intel+igp laptop.
Quindi posso parlare su chi mi pare come mi pare.
Carbone bagnato? Non ti sei reso conto che ti avevo citato A PARTE nel mio messaggio? :rolleyes:
Te invece mi ricordo avevi legami professionali con Intel, il che si evince anche dalle tue risposte notoriamente sempre pro-Intel.
Avevo, appunto. E la tua risposta è il tipico attacco Ad Hominem.
L'italiano è una bellissima lingua di cui voi programmatori di codice informatico evidentemente avete perso l'uso.
Se non capisci la tua citazione SEPARATA nel mio messaggio, è tuo il problema di comprensione della lingua italiana.
Questo è quello che ho scritto:

Quindi, ti consiglio tazzone di camomilla e a letto presto stasera ;)
Ed ecco quello che avevo scritto io:

"il fatto che non ci sia ancora un exploit disponibile NON vuol dire che le CPU di AMD non siano potenzialmente affette dalla seconda variante di Spectre."

Il contesto della risposta SAREBBE dovuto esser chiaro, ma a quanto pare avevi così fretta di rispondere che nemmeno hai capito quello che avevo detto.
p.s. Nessuno cambia il "microcodice di un processore"... Come nessuno "ruba il sole", stai sereno (?!)

Lista errata Intel:
https://www.intel.com/content/dam/www/public/us/en/documents/specification-updates/7th-gen-core-family-spec-update.pdf

Uno a caso:
https://www.hwupgrade.it/forum/attachment.php?attachmentid=93399&stc=1&d=1516133373
E mi tocca riquotarmi nuovamente:

"Non si cambia a cuor leggero il microcodice di un processore"
A me la camomilla? Tu dovresti andare a rifornirti di qualche oppiaceo, visto che non ne hai azzeccata una.

La prossima volta PRIMA di rispondermi analizza bene quello che ho scritto, visto che io le parole le peso e le scelgo accuratamente.

Slater91
16-01-2018, 21:27
"Discreto" non si può proprio leggere.

Ciao!
Si tratta - purtroppo o per fortuna - di un calco dall'inglese utilizzato in ambito scientifico e mutuato anche in settore informatico. Si parla, ad esempio, di "matematica del discreto". Un modo elegante e conciso per dirlo in italiano, d'altronde, purtroppo non esiste. Odio gli anglismi, ma talvolta hanno senso!

lucusta
16-01-2018, 22:14
AMD è vulnerabile a entrambe le varianti e anche su Windows.
Prima semplicemente non era stato accertato, adesso invece sì.


AMD Opteron, Athlon and AMD Turion X2 Ultra families...
:mc:

lucusta
16-01-2018, 22:19
Certo che fanno tenerezza i fanboy AMD, che o non hanno capito la portata del nuovo corso di Intel riguardo alle GPU (che non ha nulla a che vedere col passato, e i segnali in merito sarebbero dovuti esser eloquenti) oppure cercano di buttarla in farsa perché si stanno cacando sotto perché un nuovo, agguerrito, concorrente potrebbe rubare ulteriori quote di mercato alla loro amata marca.

credi che koduri sia andato lì a cambiar aria?
saranno tecnologie licenziate, perchè i brevetti li hanno nvidia e AMD su questo periodo temporale d'implementazione tecnologica.
quindi o paga nvidia, o paga AMD, ed il fatto che un big AMD sia entrato in Intel e gli abbiano costruito attorno un'intera divisione mi fa pensare scelleratamente che non pagheranno mai piu' nvidia.
quando si passerà alla grafica vettoriale probabilmente intel tirerà fuori i suoi vecchi brevetti fatti con larabee (ma credo che prima di 10 anni non se ne parla).

quindi mettiti in pace, che nessuno si mette paura, se non proprio nvidia, che si ritroverebbe in un sol colpo con l'80% del mercato che gira su un'architettura non sua (e questo influisce molto sugli sviluppatori).

stelite
16-01-2018, 22:24
Interessante....dopo le collaborazioni con Ion di Nvidia, SGX di PowerVR (Imagination Technologies) e ultimamente con Vega di Amd/Ati se a sto giro scazza prevedo avvicendamenti:D

cdimauro
17-01-2018, 05:36
credi che koduri sia andato lì a cambiar aria?
saranno tecnologie licenziate, perchè i brevetti li hanno nvidia e AMD su questo periodo temporale d'implementazione tecnologica.
quindi o paga nvidia, o paga AMD, ed il fatto che un big AMD sia entrato in Intel e gli abbiano costruito attorno un'intera divisione mi fa pensare scelleratamente che non pagheranno mai piu' nvidia.
quando si passerà alla grafica vettoriale probabilmente intel tirerà fuori i suoi vecchi brevetti fatti con larabee (ma credo che prima di 10 anni non se ne parla).

quindi mettiti in pace, che nessuno si mette paura, se non proprio nvidia, che si ritroverebbe in un sol colpo con l'80% del mercato che gira su un'architettura non sua (e questo influisce molto sugli sviluppatori).
I brevetti non c'entrano: Intel li paga da anni, pur non avendo mai prodotto GPU discrete, perché ha il 67% del mercato di GPU (integrate), come qualcuno ha già detto.

Dunque li ha pagati e continuerà a pagarli. Su questo non ci piove. Anche se adesso potrebbe anche prendersi Imagination Technologies per un tozzo di pane, visto che ha perso parecchio valore di mercato e sarà smembrata e venduta a pezzi, dopo che Apple ha sciolto l'accordo di licenza dei brevetti per sviluppare GPU.

La differenza, in ogni caso, è che Intel comincerà a produrrà GPU discrete, com'è stato annunciato, e quindi competerà con nVidia e AMD.

Nuovi mercati per Intel. E, ovviamente, meno per i due di cui sopra (in caso di successo).
A proposito di non capire, AMD non c'entra niente, Intel vuole cercare un modo di contrastare nVidia.
Non solo: vedi sopra. Quando ha annunciato lo sviluppo di GPU, non ha mica parlato esplicitamente di nVidia, ma di concorrentI (al plurale).

Se Intel entra nel mercato delle GPU discrete, concorre con TUTTI. E mi pare anche ovvio, no?

Se invece ti riferivi al mercato del GPGPU computing, Intel ha fatto un ALTRO annuncio riguardo alla cancellazione dei prossimi prodotti Xeon Phi, perché vuole presentare una microarchitettura (da notare bene la parola che ha usato. Quindi NON butterà x64) più adatta allo scopo.

Sono due cose diverse, sebbene legate, visto che Koduri contribuirà in entrambi i campi. Ma è evidente che si tratti di una strategia "a 360°", e dunque andrà a toccare gli interessi di tutti i produttori di GPU, qualunque sia il mercato in cui operino.

Il che dovrebbe essere una cosa "buona e giusta", vista di buon occhio e caldeggiata da tutti: più concorrenza fa bene al mercato, no? E' un mantra che sento ripetere da eoni... :O
Sul perculare Intel in campo GPU, fino a prova contraria ci sta tutto, vista la quantita' di fail prodotti storicamente in questo campo, se questa volta ci riusciranno buon per loro, nel frattempo ci credo quando lo vedo che non sara' l'ennesimo fail.
Chiaro che bisognerà attendere: son cose che richiedono 3-4 anni prima di vederne i frutti. Anche questo mi pare sia stato annunciato.

Nel frattempo utilizzerà le GPU AMD, col quale Koduri ha una certa dimestichezza, nel NUOVO mercato dei prodotti mobile ad alte prestazioni che ha creato con questo nuovo prodotto.

Tutto in linea con la politica di diversificazione degli investimenti che ha cominciato ad attuare il nuovo CEO da quand'è arrivato. Se qualcuno se fosse accorto...

Maxt75
17-01-2018, 06:20
Qui dentro girano persone con il dente talmente avvelenato, in vena di sarcasmo pungente, al punto che fanno perfino venire il dubbio che le abbiano scoperte loro le nuove vulnerabilita dei processori. Invece la realtà è che il loro/nostro contributo alla cosa è pari a quello di una massaia del Kazakistan.
Azz...un po di elasticità..su. Ci penseranno i soggetti veramente danneggiati a far valere i propri diritti, nelle opportune sedi.

Korn
17-01-2018, 07:43
Si infatti sono i migliori prodotti prestazionalmente parlando da 10 anni, anche nonostante le vulnerabilità lo scettro ce l'han sempre loro. Riuscire a fare prodotti sicuri ? E chi ce l'ha fatta ? Sia AMD che ARM sono colpiti da Spectre.
Polemica inutile poi visto che dalla prossima generazione queste vulnerabilità saran corrette via HW.

Ti vergogni ? Preferivi prendere Bulldozer e Phenom ? :rolleyes:

posso capire bulldozer ma i phenom era dei processori? poi che scettro hanno? dai su su riposati...

Lampetto
17-01-2018, 07:56
A proposito di non capire, AMD non c'entra niente, Intel vuole cercare un modo di contrastare nVidia.

Sul perculare Intel in campo GPU, fino a prova contraria ci sta tutto, vista la quantita' di fail prodotti storicamente in questo campo, se questa volta ci riusciranno buon per loro, nel frattempo ci credo quando lo vedo che non sara' l'ennesimo fail.

Ragionando un attimo a me sembra invece che Intel ha più paura del futuro Windows on ARM che delle schede grafiche, quindi sta cercando di diversificare.
La strategia non riguarda solo le schede grafiche discrete, ma creare un SoC x86 in grado di competere con ARM riguardo consumo/prestazioni/grafica, tale da far desistere Microsoft nel voler spingere verso la piattaforma Qualcomm.
La prima mossa è l'accordo con AMD per il chip di oggi, in futuro l'integrazione tramite Koduri sarà completa
Non essendo presente nel Mobile, Intel non si può permettere di perdere la Leadership anche nel mercato PC, e il mercato PC al 90% è Windows

lucusta
17-01-2018, 09:04
I brevetti non c'entrano: Intel li paga da anni, pur non avendo mai prodotto GPU discrete, perché ha il 67% del mercato di GPU (integrate), come qualcuno ha già detto.

Dunque li ha pagati e continuerà a pagarli. Su questo non ci piove. Anche se adesso potrebbe anche prendersi Imagination Technologies per un tozzo di pane, visto che ha perso parecchio valore di mercato e sarà smembrata e venduta a pezzi, dopo che Apple ha sciolto l'accordo di licenza dei brevetti per sviluppare GPU.

La differenza, in ogni caso, è che Intel comincerà a produrrà GPU discrete, com'è stato annunciato, e quindi competerà con nVidia e AMD.

Nuovi mercati per Intel. E, ovviamente, meno per i due di cui sopra (in caso di successo).

Non solo: vedi sopra. Quando ha annunciato lo sviluppo di GPU, non ha mica parlato esplicitamente di nVidia, ma di concorrentI (al plurale).

Se Intel entra nel mercato delle GPU discrete, concorre con TUTTI. E mi pare anche ovvio, no?

Se invece ti riferivi al mercato del GPGPU computing, Intel ha fatto un ALTRO annuncio riguardo alla cancellazione dei prossimi prodotti Xeon Phi, perché vuole presentare una microarchitettura (da notare bene la parola che ha usato. Quindi NON butterà x64) più adatta allo scopo.

Sono due cose diverse, sebbene legate, visto che Koduri contribuirà in entrambi i campi. Ma è evidente che si tratti di una strategia "a 360°", e dunque andrà a toccare gli interessi di tutti i produttori di GPU, qualunque sia il mercato in cui operino.

Il che dovrebbe essere una cosa "buona e giusta", vista di buon occhio e caldeggiata da tutti: più concorrenza fa bene al mercato, no? E' un mantra che sento ripetere da eoni... :O

Chiaro che bisognerà attendere: son cose che richiedono 3-4 anni prima di vederne i frutti. Anche questo mi pare sia stato annunciato.

Nel frattempo utilizzerà le GPU AMD, col quale Koduri ha una certa dimestichezza, nel NUOVO mercato dei prodotti mobile ad alte prestazioni che ha creato con questo nuovo prodotto.

Tutto in linea con la politica di diversificazione degli investimenti che ha cominciato ad attuare il nuovo CEO da quand'è arrivato. Se qualcuno se fosse accorto...

il problema di Imagination Technologies è che non ha brevetti e non paga royaty (esplicitamente ad AMD) per produrre shared unificati; è per questo che l'hanno mollata tutti tranne i cinesi, che sul mercato interno possono fare come vogliono, perchè i brevetti internazionali non valgono.

Intel entrerà in concorrenza, è questo è piu' che buono, ma lo farà con un'architettura affine a quella AMD, ed inizialmente proprio con quella AMD.
quindi, oltre che a pagare royalty per le tecnologie brevettate ad AMD, oltre che a pagare inizialmente AMD per cusomizzazioni delle sue architetture, successivamente produrrà una sua architettura che porterà il suo 67% di mercato a girare con un codice molto piu' simile a quello che riesce a sfruttare meglio le soluzioni AMD, non certo Nvidia.
e questo porterà sicuramente gli sviluppatori verso queste tecnologie, allontanandosi da quella nvidia.

l'immaginario che i TF nvidia valgono piu' dei TF AMD andrà ben presto a sciamare, e ci troveremo presto con un mercato delle schede discrete gaming con un 33% a concorrente.
per AMD non cambia di molto, per nvidia invece significa perdere piu' della metà del suo mercato, e se vendi meno...

finanziaramente sarebbe consigliabile dire a chi ha investimenti in nvidia di aspettare Ampera, la prossima architettura nvidia, che porterà l'ultreiore balzo sulle azione, e poi scappare con il malloppo, perchè il futuro non è piu' così roseo per quest'azienda.

lucusta
17-01-2018, 09:15
Il punto principale della nuova uArch GPU è quello di aggredire il mercato HPC anche da questo vettore, mercato in cui nVidia è fortissima e AMD è inesistente. Il mercato consumer è quello di risulta per tutti, e di certo questa nuova direzione non è pensata con questo come obiettivo primario, ma solo secondario "perché se siamo a fare una GPU possiamo anche venderla nel consumer". Per questo dico che il bersaglio è su nVidia e non su AMD. E infatti guarda caso il partner per i Kaby-G è AMD, e gli accordi di licenza scaduti sui brevetti con nVidia sono stati fatti con AMD: Intel considera palesemente nVidia il concorrente più temibile nei mercati che interessano maggiormente, o avrebbe fatto altre scelte.

quanti HPC credi che esistano al mondo?
in confronto al mercato server e consumer sono un diversivo.
logico che è un mercato in crescita e molto remunerativo, ma il fatto è che quello che oggi hai su HPC, il modo di calcolare, domani lo avrai su ogni oggetto che contenga elettronica "pensante".
quindi si stanno esclusivamente preparando per costruire i "cervelli" che miliardi di dispositivi integreranno nei prossimi 10 anni.
e nel robot aspirrapolvere ad autoapprendimento, nel frigo che ti manda messaggi sul telefono per dirti che manca, nella lavatrice che riconosce cosa gli metti dentro e usa il programma ed i detersivi piu' adeguati, non ci metti una Tesla, ma un chippetto grande quanto un'unghia del mignolo che deve consumare un'inezia.
il vero mercato IA è quello, non certo una decina di datacenter.

hockey
17-01-2018, 09:54
Un modo elegante e conciso per dirlo in italiano, d'altronde, purtroppo non esiste.

Per le schede, traduco sempre come "dedicato"...

MiKeLezZ
17-01-2018, 10:29
il problema di Imagination Technologies è che non ha brevetti e non paga royaty (esplicitamente ad AMD) per produrre shared unificati; è per questo che l'hanno mollata tutti tranne i cinesi, che sul mercato interno possono fare come vogliono, perchè i brevetti internazionali non valgono.

Intel entrerà in concorrenza, è questo è piu' che buono, ma lo farà con un'architettura affine a quella AMD, ed inizialmente proprio con quella AMD.
quindi, oltre che a pagare royalty per le tecnologie brevettate ad AMD, oltre che a pagare inizialmente AMD per cusomizzazioni delle sue architetture, successivamente produrrà una sua architettura che porterà il suo 67% di mercato a girare con un codice molto piu' simile a quello che riesce a sfruttare meglio le soluzioni AMD, non certo Nvidia.
e questo porterà sicuramente gli sviluppatori verso queste tecnologie, allontanandosi da quella nvidia.

l'immaginario che i TF nvidia valgono piu' dei TF AMD andrà ben presto a sciamare, e ci troveremo presto con un mercato delle schede discrete gaming con un 33% a concorrente.
per AMD non cambia di molto, per nvidia invece significa perdere piu' della metà del suo mercato, e se vendi meno...

finanziaramente sarebbe consigliabile dire a chi ha investimenti in nvidia di aspettare Ampera, la prossima architettura nvidia, che porterà l'ultreiore balzo sulle azione, e poi scappare con il malloppo, perchè il futuro non è piu' così roseo per quest'azienda.Un punto di vista sicuramente intelligente ed interessante... Secondo me ha però delle vistose lacune:

1) Intel ai tempo buttò via la sua sezione ARM. NVIDIA attualmente ha la migliore CPU ARM in circolazione (e non la aggiorna da 2 anni, quindi ha pronta per l'uscita anche una sua versione migliorata). Windows a breve supporterà gli ARM e questi promettono piena compatibilità win32/win64 e prestazioni ed autonomia paragonabili agli X86. Senza immaginare chissà quali apocalissi, non è detto che Intel resti leader del mercato ancora a lungo.

2) Dopo le figuracce IME, Spectre, Meltdown, considerando il refresh CPU 8°gen poco appetibile, le nuove APU AMD e Ryzen+ in uscita fra un paio di mesi e un globale entusiasmo, anche nel mercato server, nei confronti di AMD... c'è il rischio tangibile di perdita quote di mercato. Tu ipotizzi uno scenario al 33/33/33. Si può tranquillamente ipotizzare anche un decisamente meno catastrofico 55% NVIDIA (molti che usano CPU AMD usano infatti NVIDIA come GPU), 35% AMD e 15% INTEL.

3) Il mercato dektop e laptop sta subendo pesanti stravolgimenti. E' il 6° anno di fila che calano le vendite. Nel 2016 c'era il 6,2% di calo. Nel 2017 le stime parlano di un terrificante 8%. Considerando una crescente "informatizzazione", la crescita demografica e l'industrializzazione di nuovi paesi, questo significa cali reali ancora maggiori (controbilanciati dal mercato ARM ed altri device "connected", che stanno quindi mangiando le loro quote). Anche per questo l'investimento di INTEL in una GPU discreta non mi sembra questa genialata. Io continuo a dire si tratti solo di una mossa di marketing, fumo negli occhi, per non far scappare gli stakeholder dall'azienda. Dopo il picco in salita avuto dalle azioni con l'uscita dei nuovi core, dopo gli ultimi avvenimenti queste stanno prendendo la via della picchiata.

bagnino89
17-01-2018, 10:37
Ciao!
Si tratta - purtroppo o per fortuna - di un calco dall'inglese utilizzato in ambito scientifico e mutuato anche in settore informatico. Si parla, ad esempio, di "matematica del discreto". Un modo elegante e conciso per dirlo in italiano, d'altronde, purtroppo non esiste. Odio gli anglismi, ma talvolta hanno senso!

Beh ma "matematica del discreto" ha senso anche in italiano, per distinguerla dal calcolo infinitesimale (matematica del continuo). Discrete GPU, per come la vedo io, dovrebbe essere intesa come "GPU a parte, separata", dedicata in altri termini.

Del resto, basta consultare un buon dizionario.

http://www.wordreference.com/enit/discrete

+Benito+
17-01-2018, 11:06
Un punto di vista sicuramente intelligente ed interessante... Secondo me ha però delle vistose lacune:

1) Intel ai tempo buttò via la sua sezione ARM. NVIDIA attualmente ha la migliore CPU ARM in circolazione (e non la aggiorna da 2 anni, quindi ha pronta per l'uscita anche una sua versione migliorata). Windows a breve supporterà gli ARM e questi promettono piena compatibilità win32/win64 e prestazioni ed autonomia paragonabili agli X86. Senza immaginare chissà quali apocalissi, non è detto che Intel resti leader del mercato ancora a lungo.

2) Dopo le figuracce IME, Spectre, Meltdown, considerando il refresh CPU 8°gen poco appetibile, le nuove APU AMD e Ryzen+ in uscita fra un paio di mesi e un globale entusiasmo, anche nel mercato server, nei confronti di AMD... c'è il rischio tangibile di perdita quote di mercato. Tu ipotizzi uno scenario al 33/33/33. Si può tranquillamente ipotizzare anche un decisamente meno catastrofico 55% NVIDIA (molti che usano CPU AMD usano infatti NVIDIA come GPU), 35% AMD e 15% INTEL.

3) Il mercato dektop e laptop sta subendo pesanti stravolgimenti. E' il 6° anno di fila che calano le vendite. Nel 2016 c'era il 6,2% di calo. Nel 2017 le stime parlano di un terrificante 8%. Considerando una crescente "informatizzazione", la crescita demografica e l'industrializzazione di nuovi paesi, questo significa cali reali ancora maggiori (controbilanciati dal mercato ARM ed altri device "connected", che stanno quindi mangiando le loro quote). Anche per questo l'investimento di INTEL in una GPU discreta non mi sembra questa genialata. Io continuo a dire si tratti solo di una mossa di marketing, fumo negli occhi, per non far scappare gli stakeholder dall'azienda. Dopo il picco in salita avuto dalle azioni con l'uscita dei nuovi core, dopo gli ultimi avvenimenti queste stanno prendendo la via della picchiata.

Fermo restando che, come dicevo prima, la mia impressione è che Intel punti all'embedded prestazionale più che al discreto, rimane che in un mondo PC che ormai stagna per carenza di necessità (un PC di 5-6 anni fa usato da una segretaria non ha problemi a funzionare correttamente e con livello prestazionale adeguato tutt'ora, cosa non vera riportata 5 anni prima) e per naturale sviluppo asintotico, il mercato enthusiast è l'unico in fascia consumer che risente ancora della necessità di aggiornamento continuo per rimanere al passo.

La fascia pro è molto strana: ci sono applicativi che risentono in maniera pesante dell'hardware video ed altri che non lo sfruttano minimamente. Il primo settore ormai è gestito in maniera diversificata da tutti i competitor, il secondo è in mano sostanzialmente al mercato dei processori.

La mossa di Intel può essere di aggredire con un prodotto integrato il mercato gaming di fascia media (quello di fascia bassa ce l'ha già, in condivisione con AMD), e/o quello di fascia alta con un prodotto top.

Sviluppare una soluzione modulare che possa essere inserita al momento sul socket ed in futuro sul silicio per il primo mercato e su un altro socket indipendente per il secondo lo vedo ben possibile.

Faccio notare che negli ultimi 15 anni la complessità delle schede madri è calata in maniera drastica, grazie all'integrazoine di NB e SB all'interno del processore. In questo contesto mi sembra anacronistico avere il comparto video su slot e non su socket. L'avvento dell'HBM apre la strada allo sviluppo di chip video su socket per cui mi aspetto che nei prossimo 5-10 anni il bus PCI-Express passi da slot a socket con grandioso risparmio di costi di produzione a prezzi sostanzialmente invariati per l'utente.

rockroll
18-01-2018, 04:34
Certo che fanno tenerezza i fanboy AMD, che o non hanno capito la portata del nuovo corso di Intel riguardo alle GPU (che non ha nulla a che vedere col passato, e i segnali in merito sarebbero dovuti esser eloquenti) oppure cercano di buttarla in farsa perché si stanno cacando sotto perché un nuovo, agguerrito, concorrente potrebbe rubare ulteriori quote di mercato alla loro amata marca.

@MiKeLezZ: il fatto che non ci sia ancora un exploit disponibile NON vuol dire che le CPU di AMD non siano potenzialmente affette dalla seconda variante di Spectre. Non si cambia a cuor leggero il microcodice di un processore, che è un componente delicatissimo, col rischio di malfunzionamenti e/o perdite prestazionali. Difatti AMD ha pure cambiato dichiarazione, discostandosi dall'iniziale "probabilità prossime a zero".

Come no, farebbero tenerezza e addirittura si starebbero cacando sotto?
Detto da uno da tutti visto come smaccato sostenitore (= fanboy Intel fino alle unghie dei piedi), pronto a correre in appoggio incondizionato a quest'ultima quando qualcuno mette in evidenza i suoi punti deboli o anche solo non ossequia con dovuta enfasi la presunta bontà delle sue scelte...

Insomma, tutti vedono che Intel sta attraversando un momento di minor favore se non di difficoltà, tra rinata concorrenza attuale e prossima sul mercato, quasi azzeramento del gap prestazionale sulla concorrenza, impatto decisamente maggiore nei bug (o falle?) progettuali HW di recente scoperta e tentativi maldestri di coinvolgere altri alla pari in un calderone comune..., però i meschini che se la fanno sotto sono gli altri...! Va bene così!

La portata del nuovo corso di Intel è il tentativo di essere presente in un settore dove non ha mai sfondato, integrando in un primo tempo le GPU della concorrenza per poi cercare di replicarle, sia integrate che discrete, grazie all'assunzione allo scopo dell'esperto ex AMD Koduri. Ha tutto il sapore di un accordo Intel/AMD per mitigare la supremazia nVidia sulle discrete in specie, portando comunque vantaggi certamente a lei ma anche all'ex nemica AMD.

Quelli di AMD saranno pure ingenui e sprovveduti lato marketing, ma non fino al punto di regalare i loro brevetti e proprietà intellettuali all'ex rivale.

cdimauro
18-01-2018, 05:52
Ragionando un attimo a me sembra invece che Intel ha più paura del futuro Windows on ARM che delle schede grafiche, quindi sta cercando di diversificare.
La strategia non riguarda solo le schede grafiche discrete, ma creare un SoC x86 in grado di competere con ARM riguardo consumo/prestazioni/grafica, tale da far desistere Microsoft nel voler spingere verso la piattaforma Qualcomm.
La prima mossa è l'accordo con AMD per il chip di oggi, in futuro l'integrazione tramite Koduri sarà completa
Non essendo presente nel Mobile, Intel non si può permettere di perdere la Leadership anche nel mercato PC, e il mercato PC al 90% è Windows
Peccato che Intel abbia abbandonato il segmento mobile, per cui: come la contrasterebbe Qualcomm senza un adeguato SoC?
Esattamente

Il punto principale della nuova uArch GPU è quello di aggredire il mercato HPC anche da questo vettore, mercato in cui nVidia è fortissima e AMD è inesistente. Il mercato consumer è quello di risulta per tutti, e di certo questa nuova direzione non è pensata con questo come obiettivo primario, ma solo secondario "perché se siamo a fare una GPU possiamo anche venderla nel consumer". Per questo dico che il bersaglio è su nVidia e non su AMD. E infatti guarda caso il partner per i Kaby-G è AMD, e gli accordi di licenza scaduti sui brevetti con nVidia sono stati fatti con AMD: Intel considera palesemente nVidia il concorrente più temibile nei mercati che interessano maggiormente, o avrebbe fatto altre scelte.
Come già detto altre volte, Intel s'è rivolta ad AMD perché riesce a strappare chip più a buon mercato rispetto a nVidia (che non è noto non muoversi dai margini di profitto a cui è abituata).

Poi, ribadisco: non è solo il mercato HPC che interessa a Intel, dove opera già, e ha già detto che sta preparando una nuova MICRO-architettura.

Gli annunci parlano chiaramente di GPU discrete (adopero questo termine perché è in uso nella nostra lingua ormai, per distinguerle dalle GPU integrate), e di concorrenza in generale.
il problema di Imagination Technologies è che non ha brevetti e non paga royaty (esplicitamente ad AMD) per produrre shared unificati; è per questo che l'hanno mollata tutti tranne i cinesi, che sul mercato interno possono fare come vogliono, perchè i brevetti internazionali non valgono.
Se non sbaglio Imagination Technologies, nella causa con Apple, ha dichiarato che non si può costruire una GPU senza i suoi brevetti. Dunque brevetti importanti (fondamentali, a questo punto) ne ha...
Intel entrerà in concorrenza, è questo è piu' che buono, ma lo farà con un'architettura affine a quella AMD, ed inizialmente proprio con quella AMD.
quindi, oltre che a pagare royalty per le tecnologie brevettate ad AMD, oltre che a pagare inizialmente AMD per cusomizzazioni delle sue architetture, successivamente produrrà una sua architettura che porterà il suo 67% di mercato a girare con un codice molto piu' simile a quello che riesce a sfruttare meglio le soluzioni AMD, non certo Nvidia.
e questo porterà sicuramente gli sviluppatori verso queste tecnologie, allontanandosi da quella nvidia.
Non ne sarei così sicuro. nVidia è ben radicata grazie a CUDA e Physics. Difficile scalzarla.

Peraltro qualche anno fa Intel ha venduto Havoc, e quindi non ha in casa una soluzione in grado di competere a 360° con l'intero ecosistema di nVidia.
l'immaginario che i TF nvidia valgono piu' dei TF AMD andrà ben presto a sciamare, e ci troveremo presto con un mercato delle schede discrete gaming con un 33% a concorrente.
per AMD non cambia di molto, per nvidia invece significa perdere piu' della metà del suo mercato, e se vendi meno...

finanziaramente sarebbe consigliabile dire a chi ha investimenti in nvidia di aspettare Ampera, la prossima architettura nvidia, che porterà l'ultreiore balzo sulle azione, e poi scappare con il malloppo, perchè il futuro non è piu' così roseo per quest'azienda.
E' chiaro che Intel mangerà quote di mercato anche a nVidia. Quanto, però, è un po' prematuro saperlo.

Nel frattempo, come mostrato anche da altri, nVidia è in crescita soprattutto in altri settori.
Crescita di ricavi nVidia in due anni, divisa per settore:

- gaming (geforce): 192%
- pro (quadro): 117%
- datacenter (tesla): 516%

Le infrastrutture sono sempre più gigantesche, l'ambito datacenter in crescita enorme e costante, se fossi un nuovo player cercherei di sfondare nel mercato nuovo e in crescita in tripla cifra, non in uno consolidato e la cui crescita è altalenante e continuamente in discussione.

Per questo Intel approccia di nuovo il mondo GPU e per questo AMD ha progettato Vega per l'HPC e non per il gaming.
Come già detto, Intel ha dichiarato che introdurrà una nuova MICRO-architettura per l'HPC. E quindi NON una nuova architettura (=ISA).

Il che significa che continuerà a mantenere x64 come architettura.

Questa la situazione attuale. Poi se in corso d'opera dovesse decidere di cambiare anche ISA, non possiamo saperlo. Al momento le dichiarazioni sono quelle.
Imagination Technologies e' una private company in mano ad un fondo cinese adesso, troppo tardi.
Ma la stanno smembrando. Se non ricordo male hanno già separato la divisione che si occupa di MIPS, per venderla. Lo stesso potrebbero fare col comparto grafico.
Un punto di vista sicuramente intelligente ed interessante... Secondo me ha però delle vistose lacune:

1) Intel ai tempo buttò via la sua sezione ARM. NVIDIA attualmente ha la migliore CPU ARM in circolazione (e non la aggiorna da 2 anni, quindi ha pronta per l'uscita anche una sua versione migliorata).
Personalmente ritengo che sia Apple ad avere la migliore CPU ARM.
Windows a breve supporterà gli ARM e questi promettono piena compatibilità win32/win64
Da quanto trapelato finora, la compatibilità sembra limitata esclusivamente alle applicazioni Win32.
e prestazioni ed autonomia paragonabili agli X86.
L'autonomia è nettamente superiore, mentre dai benchmark trapelati finora sembra che le prestazioni siano nettamente inferiori anche agli attuali Atom (ApolloLake) di Intel.
Senza immaginare chissà quali apocalissi, non è detto che Intel resti leader del mercato ancora a lungo.
E' possibile. Anche Google c'ha già provato coi Chromebook basati su ARM, ma non mi pare che abbiano avuto granché successo.

Comunque vedremo come sarà realmente la situazione quando le nuove macchine Windows ARM saranno commercializzate.
3) Il mercato dektop e laptop sta subendo pesanti stravolgimenti. E' il 6° anno di fila che calano le vendite. Nel 2016 c'era il 6,2% di calo. Nel 2017 le stime parlano di un terrificante 8%. Considerando una crescente "informatizzazione", la crescita demografica e l'industrializzazione di nuovi paesi, questo significa cali reali ancora maggiori (controbilanciati dal mercato ARM ed altri device "connected", che stanno quindi mangiando le loro quote).
L'ultimo dato parla di una leggera crescita. E' possibile che ci sia un'inversione di tendenza, dopo un periodo di vacche magre.
Anche per questo l'investimento di INTEL in una GPU discreta non mi sembra questa genialata. Io continuo a dire si tratti solo di una mossa di marketing, fumo negli occhi, per non far scappare gli stakeholder dall'azienda. Dopo il picco in salita avuto dalle azioni con l'uscita dei nuovi core, dopo gli ultimi avvenimenti queste stanno prendendo la via della picchiata.
L'arrivo di Koduri era in programma già da tempo ("casualmente" s'era preso un periodo sabbatico subito dopo l'arrivo di VEGA. Inoltre mi pare ci fossero state voci di discussioni fra lui e il CEO di AMD.). Per cui vuol dire che l'investimento sulle GPU è cosa che risale a ben prima.

Inoltre, dalle informazioni rese pubbliche, sembra che finalmente Intel voglia entrare col piede giusto nel settore (dunque NON riciclando la sua ISA x86/x64), con prodotti all'altezza della concorrenza.
Fermo restando che, come dicevo prima, la mia impressione è che Intel punti all'embedded prestazionale più che al discreto,
Dalle sue dichiarazioni, dovrebbe essere interessata a entrare in tutti i segmenti del mercato delle GPU.

In ambito embedded ha già le sue GPU integrate, ma non sono sufficienti per coprire tutto.
rimane che in un mondo PC che ormai stagna per carenza di necessità (un PC di 5-6 anni fa usato da una segretaria non ha problemi a funzionare correttamente e con livello prestazionale adeguato tutt'ora, cosa non vera riportata 5 anni prima) e per naturale sviluppo asintotico, il mercato enthusiast è l'unico in fascia consumer che risente ancora della necessità di aggiornamento continuo per rimanere al passo.

La fascia pro è molto strana: ci sono applicativi che risentono in maniera pesante dell'hardware video ed altri che non lo sfruttano minimamente. Il primo settore ormai è gestito in maniera diversificata da tutti i competitor, il secondo è in mano sostanzialmente al mercato dei processori.

La mossa di Intel può essere di aggredire con un prodotto integrato il mercato gaming di fascia media (quello di fascia bassa ce l'ha già, in condivisione con AMD), e/o quello di fascia alta con un prodotto top.

Sviluppare una soluzione modulare che possa essere inserita al momento sul socket ed in futuro sul silicio per il primo mercato e su un altro socket indipendente per il secondo lo vedo ben possibile.

Faccio notare che negli ultimi 15 anni la complessità delle schede madri è calata in maniera drastica, grazie all'integrazoine di NB e SB all'interno del processore. In questo contesto mi sembra anacronistico avere il comparto video su slot e non su socket. L'avvento dell'HBM apre la strada allo sviluppo di chip video su socket per cui mi aspetto che nei prossimo 5-10 anni il bus PCI-Express passi da slot a socket con grandioso risparmio di costi di produzione a prezzi sostanzialmente invariati per l'utente.
Molto interessante come prospettiva.
Come no, farebbero tenerezza e addirittura si starebbero cacando sotto?
Detto da uno da tutti visto come smaccato sostenitore (= fanboy Intel fino alle unghie dei piedi), pronto a correre in appoggio incondizionato a quest'ultima quando qualcuno mette in evidenza i suoi punti deboli o anche solo non ossequia con dovuta enfasi la presunta bontà delle sue scelte...
Il solito attacco Ad Hominem. Dovresti focalizzarti, invece, sui FATTI che riporto, ma evidentemente quelli ti stanno indigesti, visto che non riesci ad attaccarli.
Insomma, tutti vedono che Intel sta attraversando un momento di minor favore se non di difficoltà, tra rinata concorrenza attuale e prossima sul mercato, quasi azzeramento del gap prestazionale sulla concorrenza, impatto decisamente maggiore nei bug (o falle?) progettuali HW di recente scoperta e tentativi maldestri di coinvolgere altri alla pari in un calderone comune..., però i meschini che se la fanno sotto sono gli altri...! Va bene così!
Scusami, quand'è che avrei negato che Intel abbia problemi?

Qui, invece, stiamo parlando del nuovo corso di Intel riguardo alle GPU, e ci si dovrebbe basare sulle dichiarazioni ufficiali che ha rilasciato, unito all'annuncio dell'arrivo di Koduri e dei nuovi prodotti mobile ad alte prestazioni con la GPU integrata che adesso arriverà da AMD.
La portata del nuovo corso di Intel è il tentativo di essere presente in un settore dove non ha mai sfondato, integrando in un primo tempo le GPU della concorrenza per poi cercare di replicarle, sia integrate che discrete, grazie all'assunzione allo scopo dell'esperto ex AMD Koduri. Ha tutto il sapore di un accordo Intel/AMD per mitigare la supremazia nVidia sulle discrete in specie, portando comunque vantaggi certamente a lei ma anche all'ex nemica AMD.
Questa è la chiave di lettura di un fanboy AMD, quale sei tu.

Intel, invece, ha dichiarato che farà concorrenza a tutti i player del settore.

Ovviamente al momento si rivolge ad AMD perché non ha una GPU adeguata per il nuovo segmento "mobile enthusiast" (chiamiamolo così), ma in futuro produrrà tutto in casa.

E proprio con la nuova soluzione mobile ad alte prestazioni ha dimostrato di fare meglio di AMD proprio nel campo in cui quest'ultima ha, invece, molta più esperienza: l'integrazione delle memorie HBM con l'uso di interposer.
Quelli di AMD saranno pure ingenui e sprovveduti lato marketing, ma non fino al punto di regalare i loro brevetti e proprietà intellettuali all'ex rivale.
C'è un mercato per le IP delle GPU, e ci sono diversi player, che li vendono a prezzi diversi.

Inoltre entrando nel mercato delle GPU, Intel potrebbe a sua volta produrre nuovi brevetti utili per la loro produzione, che potrebbero servire anche agli altri vendor. E da lì si passerebbe poi a uno scambio di licenze, togliendo di mezzo i pagamenti delle IP. Scenario alquanto comune.

nickname88
18-01-2018, 07:01
posso capire bulldozer ma i phenom era dei processori? poi che scettro hanno? dai su su riposati...
I Phenom cosa ? Erano fallimenti anch'essi.
Il primato delle performance sta in casa Intel, vulnerabilità o meno.
L'ultimo AMD competitivo era l'Athlon64 nei confronti del Pentium.

gioloi
18-01-2018, 10:04
Del resto, basta consultare un buon dizionario.

http://www.wordreference.com/enit/discrete
Infatti. La parola italiana "discreto" in senso matematico significa "a valori finiti", come dice anche il link che hai postato, e non mi pare c'entri con il caso della GPU. Quindi tradurre "scheda discreta" lo classificherei come il tipico caso di "false friend".
Penso che "scheda separata" o "dedicata" sia la definizione più calzante.

MiKeLezZ
18-01-2018, 10:15
E sono d'accordo che la migliore CPU ARM l'abbia Apple, non nVidia.Al momento sì in quanto il Tegra X1 non è stato aggiornato. E' del 2015.

Il Tegra X1 usa A53 e A57, un nodo a 20nm, una VGA Maxwell e un bus a 64-bit. Pure in queste condizioni si difende contro un A9X con A72, nodo a 16nm, clock il 25% superiore e bus a 128-bit.

Ma il prossimo Tegra sarà a 16nm, avrà 512 CUDA Volta, 8 CPU custom (fra cui 4 A72) a 2GHz e bus da 128-bit.
Una bestia non da poco, difficile rivaleggiarla.

E' possibile. Anche Google c'ha già provato coi Chromebook basati su ARM, ma non mi pare che abbiano avuto granché successo.Lo pensavo anche io, poi sono andato a verificare i dati ed invece il Chromebook sta letteralmente spopolando, tant'è che Microsoft, Intel ed Apple sono disperate dal mercato che gli è stato eroso:
https://techcrunch.com/2017/04/27/as-chromebook-sales-soar-in-schools-apple-and-microsoft-fight-back/
Già nel 2015 negli USA si vendevano più Chromebook che MacBook! E nel 2017 le vendite di Chromebook sono triplicate rispetto lo scorso anno.

bagnino89
18-01-2018, 10:18
in elettronica, si parla di elettronica discreta in confronto all'elettronica integrata, come in matematica si parla di Z vs R (dominio discreto e continuo). Non e' nessun problema di traduzione, e' un normalissimo termine tecnico.

Sì ma in inglese si parla di discrete GPU per distinguerla da una integrated GPU, non per parlare di una scheda che si basa su principi di elettronica discreta... Quindi sì, è un problema di traduzione, il classico false friend.

Tra l'altro su Google, con una piccola ricerca, ho trovato questo:

http://www.toptenreviews.com/computers/articles/graphics-cards-integrated-vs.-dedicated/

In particolare, le primissime righe:

When you buy a computer, more specifically a laptop, the one piece of hardware that is the most difficult to choose is the graphics card. You may have heard terms like integrated, discrete and dedicated. First off, to erase some confusion, discrete and dedicated mean the same thing, so there are only two terms you need to know to understand the difference between the two kinds of graphics cards.

bagnino89
18-01-2018, 11:30
ma no, la traduzione e' corretta. si parla di elettronica a componenti discreti, un resistore puo' essere discreto su un pcb, o integrato in un pezzo di silicio.

che poi dedicata e discreta vogliano dire la stessa cosa in questo ambito non inficia il fatto che "discreta" sia una traduzione corretta. anzi, in questo caso si intende per dedicato un pezzo di silicio (un chip) dedicato ad un solo scopo, invece che una parte di un circuito integrato piu' ampio.

Sì ma anche una GPU integrata è discreta, voglio dire, è fatta di un insieme di transisitor e altri componenti elettronici... Quindi in italiano l'aggettivo discreto non è sufficiente a distinguere i due concetti separati di GPU dedicata (una GTX 1070 per dire) e integrata (una Intel Iris Pro per esempio).

Nella lingua inglese questo è possibile perché l'aggettivo discrete significa, appunto, separato, dedicato. Ma non in italiano!

+Benito+
18-01-2018, 11:57
e che palle chiamala come vuoi non sporcare la discussione.

+Benito+
18-01-2018, 12:01
C'è chi pensa che ARM sia magia. Banalmente i prodotti basati su ARM Sono sempre stati dedicati al low power, offrendo prestazioni ben inferiori a x86 e altrettanto contenuti consumi. È pur possibile che x86 introduca un "overhead di consumo", ma produrre CPU ARM dalle prestazioni confrontabili con x86 vorrebbe dire andare a finire anche in consumi confrontabili.


Ecco questa cosa è molto interessante. Da quel che so, anche nel mondo ARM ci sono architetture e litografie HP e LP, ma mi risulta che siano usate entrambe già ora. Anche nei sidegni standard ci sono differenze di architettura e di prestazioni enormi in termini di IPC e potenza di calcolo, ma anche di consumi. Tra un A72 ed un A53 c'è un fattore oltre 2x nella potenza a pari frequenza e numero di cores, immaginavo che fossero realizzati anche con processi produttivi diversi.

cdimauro
18-01-2018, 21:55
No, questa è la chiave di lettura di chi ha già visto queste dichiarazioni e anche i pessimi risultati che le hanno seguite. Magari questa volta ci riesce, e me lo auguro perché il duopolio è decisamente poco consumer friendly, ma la storia dice altrimenti e quindi è la lettura più logica. Poi valuteremo a tempo debito sui fatti, ovviamente.
Senz'altro, ma nello specifico è la chiave di lettura contro nVidia (addirittura con Intel e AMD coalizzate allo scopo) su cui ho avuto da ridire, che è certamente una forzatura: Intel farà concorrenza a tutti, e non solo a nVidia.

Voler ricondurre il tutto esclusivamente contro nVidia è, quindi, una lettura da fanboy, per l'appunto.
Al momento sì in quanto il Tegra X1 non è stato aggiornato. E' del 2015.

Il Tegra X1 usa A53 e A57, un nodo a 20nm, una VGA Maxwell e un bus a 64-bit. Pure in queste condizioni si difende contro un A9X con A72, nodo a 16nm, clock il 25% superiore e bus a 128-bit.

Ma il prossimo Tegra sarà a 16nm, avrà 512 CUDA Volta, 8 CPU custom (fra cui 4 A72) a 2GHz e bus da 128-bit.
Una bestia non da poco, difficile rivaleggiarla.
Quanto meno a livello di CPU non credo che Apple avrà problemi, visto che la sua micro-architettura è in assoluto la più efficiente & performante.

nVidia con Tegra sembra aver abbandonato il suo progetto custom (Project Denver), basandosi soltanto sui core standard di ARM (che però sono inferiori al design custom di Apple).
Lo pensavo anche io, poi sono andato a verificare i dati ed invece il Chromebook sta letteralmente spopolando, tant'è che Microsoft, Intel ed Apple sono disperate dal mercato che gli è stato eroso:
https://techcrunch.com/2017/04/27/as-chromebook-sales-soar-in-schools-apple-and-microsoft-fight-back/
Già nel 2015 negli USA si vendevano più Chromebook che MacBook! E nel 2017 le vendite di Chromebook sono triplicate rispetto lo scorso anno.
L'articolo parla esclusivamente di Apple e Microsoft, e non cita mai Intel né ARM.

Senz'altro Chromebook ha tolto quote di mercato a Apple e Microsoft, ma se non ricordo male sono le versioni x86/x64, e non ARM, a vendere di più.

cdimauro
19-01-2018, 17:45
Ti sei perso il contesto. Infatti NON si parlava di HPC, ma soltanto di GPU, integrate e discrete. E in questo contesto la mia replica è assolutamente adeguata.

Riporto il testo in questione, visto che s'è perso nelle precedenti pagine, evidenziando alcuni termini:

"La portata del nuovo corso di Intel è il tentativo di essere presente in un settore dove non ha mai sfondato, integrando in un primo tempo le GPU della concorrenza per poi cercare di replicarle, sia integrate che discrete, grazie all'assunzione allo scopo dell'esperto ex AMD Koduri. Ha tutto il sapore di un accordo Intel/AMD per mitigare la supremazia nVidia sulle discrete in specie, portando comunque vantaggi certamente a lei ma anche all'ex nemica AMD."

Quindi, direi proprio di sì: vedo fanboy proprio perché, in questo preciso contesto (che è quello a cui ho replicato), il termine ci rientra perfettamente. :read: