PDA

View Full Version : Apple, ecco i motivi che hanno fatto scegliere AMD sui nuovi MacBook Pro


Redazione di Hardware Upg
17-11-2016, 13:41
Link alla notizia: http://www.hwupgrade.it/news/apple/apple-ecco-i-motivi-che-hanno-fatto-scegliere-amd-sui-nuovi-macbook-pro_65718.html

Il ritorno di AMD nei laptop Apple è stato dettato dalla volontà dell'azienda di Cupertino di sfruttare la possibilità di muovere fino a due monitor 5K. Oltre a questo anche i minori consumi rispetto alla concorrenza Nvidia in primis.

Click sul link per visualizzare la notizia.

turcone
17-11-2016, 13:55
leggendo stavo sentendo le unghie che raschiavano sul vetro :D :D
il vero motivo perchè apple ha scelto ame sono i soldi :muro: data la posizione solida si nvidia non avvrebbe mai accettato contratti stringenti come quelli che fa apple con i fornitori

Phoenix Fire
17-11-2016, 13:57
curiosità, da quanto sembra dall'articolo i mbp 2016 non supportano dp 1.3 giusto?

Tedturb0
17-11-2016, 14:02
leggendo stavo sentendo le unghie che raschiavano sul vetro :D :D
il vero motivo perchè apple ha scelto ame sono i soldi :muro: data la posizione solida si nvidia non avvrebbe mai accettato contratti stringenti come quelli che fa apple con i fornitori

Credo che consumi e supporto monitor esterni siano due ottime ragioni, oltreche i soldi

Schwarzk
17-11-2016, 14:03
Oltre a questo anche i minori consumi rispetto alla concorrenza Nvidia in primis.

Bhe questa direi che è anche la cosa più importante!

MiKeLezZ
17-11-2016, 14:12
Bhe questa direi che è anche la cosa più importante!a me suona di gran paraculata visto che pascal è 2 volte più efficiente di qualsiasi grafica amd

TheDarkAngel
17-11-2016, 14:18
a me suona di gran paraculata visto che pascal è 2 volte più efficiente di qualsiasi grafica amd

Non certamente dei modelli forniti ad apple, poi per le specifiche richieste, nvidia non ha proprio la possibilità di fornire un prodotto adeguato.

Schwarzk
17-11-2016, 14:22
a me suona di gran paraculata visto che pascal è 2 volte più efficiente di qualsiasi grafica amd

Per me possono paracularsi a vicenda prima loro e poi Nvidia.
Basta che forniscono un chip che scalda pochissimo e consuma pochissimo.
Il resto, sono chiacchiere da bar.

Phoenix Fire
17-11-2016, 14:29
a me suona di gran paraculata visto che pascal è 2 volte più efficiente di qualsiasi grafica amd

io penso che nvidia non voleva fornire ad Apple un hw con quelle specifiche a quel prezzo, mentre AMD, che è meno ricca, probabilmente accetta anche ricavi molto minori in cambio di grandi ordini

MiKeLezZ
17-11-2016, 14:36
io penso che nvidia non voleva fornire ad Apple un hw con quelle specifiche a quel prezzo, mentre AMD, che è meno ricca, probabilmente accetta anche ricavi molto minori in cambio di grandi ordiniSe spendo il top per un portatile Apple mi aspetto poi di avere il top di componentistica, non un giocatore di serie B perché quello di serie A costa troppo

turcone
17-11-2016, 14:40
Se spendo il top per un portatile Apple mi aspetto poi di avere il top di componentistica, non un giocatore di serie B perché quello di serie A costa troppo

perchè i portatili apple hanno il top dell'hardware ?
se escludi lo schermo per il resto hanno hardware medio se vuoi il top devi scegliere altro

Lwyrn
17-11-2016, 14:40
Se spendo il top per un portatile Apple mi aspetto poi di avere il top di componentistica, non un giocatore di serie B perché quello di serie A costa troppo

Questo è un ragionamento fuori ogni logica per chi acquista Apple :sofico: . Paghi quello che vogliono per darti quello che vogliono. E a questo giro paghi di più anche avendo decine di cose in meno :D
E purtroppo lo dico da utilizzatore di prodotti Apple :cry:

Gello
17-11-2016, 15:00
LoooooooooooooooooooL un'azienda che non si preoccupa di metterti due usb in piu', sceglie un produttore rispetto ad un altro, a seconda del numero dei monitor esterni a 5k che ci puoi collegare, lol e ri lol.

Phoenix Fire
17-11-2016, 15:01
Top non si intende solo come potenza, centrano anche le funzionalità, i consumi, ecc.
Anche scegliendo Nvidia non avrebbero comunque messo il top come prestazioni.
visto l'efficenza delle soluzioni Nvidia, probabilmente sono in grado di creare schede con tdp così basso ma più potenti delle AMD, quindi avrebbero notebook con prestazioni top rispetto alle dimensioni e all'autonomia

m4x!
17-11-2016, 15:09
Eppure ars tecnica è chiara nella spiegazione:
"Incidentally, this also helps explain why Apple went with AMD’s Polaris-based GPUs instead of Nvidia’s generally faster Pascal-based GPUs. Power consumption aside—the laptop version of the GTX 1060, Nvidia’s slowest Pascal-based laptop chip, has an 85W TDP where the MacBook Pro’s AMD GPUs are all 35W—Nvidia’s cards support a maximum of four displays. And while Nvidia’s GPUs support DisplayPort 1.3, the Thunderbolt 3 controller and most monitors only support 1.2."
Non mi pare che sia un mero problema di TDP, siamo tutti fanboy Nvidia e spaliamo merda su Apple, ma sto giro diamo atto che la scelta, per le loro esigenze, è giusta... Avevano bisogno di 5 linee DP 1.2 per poter averne 2 dedicate per ciascun monitor 5K esterno e una per quello interno... Ne con Nvidia ne con Intel si poteva fare.

LorenzAgassi
17-11-2016, 15:48
perchè i portatili apple hanno il top dell'hardware ?
se escludi lo schermo per il resto hanno hardware medio se vuoi il top devi scegliere altro



Ma soprattutto avete mai visto fare questi stessi discorsi, ovvero cosa scelgono come scheda video o come marca di dischi etc tutti gli altri produttori come Dell o HP o Lenovo etc sui loro modelli Top di Gamma?:D




Eppure ars tecnica è chiara nella spiegazione:
"Incidentally, this also helps explain why Apple went with AMD’s Polaris-based GPUs instead of Nvidia’s generally faster Pascal-based GPUs. Power consumption aside—the laptop version of the GTX 1060, Nvidia’s slowest Pascal-based laptop chip, has an 85W TDP where the MacBook Pro’s AMD GPUs are all 35W—Nvidia’s cards support a maximum of four displays. And while Nvidia’s GPUs support DisplayPort 1.3, the Thunderbolt 3 controller and most monitors only support 1.2."
Non mi pare che sia un mero problema di TDP, siamo tutti fanboy Nvidia e spaliamo merda su Apple, ma sto giro diamo atto che la scelta, per le loro esigenze, è giusta... Avevano bisogno di 5 linee DP 1.2 per poter averne 2 dedicate per ciascun monitor 5K esterno e una per quello interno... Ne con Nvidia ne con Intel si poteva fare.



Ma questi di Ars Tecnica sempre a difendere Apple etc etc scrivendo papiri ..come se gli si toccasse ogni volta una figlia..
Li avete mai visti fare il contrario con Apple?

m4x!
17-11-2016, 16:00
Ma soprattutto avete mai visto fare questi stessi discorsi, ovvero cosa scelgono come scheda video o come marca di dischi etc tutti gli altri produttori come Dell o HP o Lenovo etc sui loro modelli Top di Gamma?:D








Ma questi di Ars Tecnica sempre a difendere Apple etc etc scrivendo papiri ..come se gli si toccasse ogni volta una figlia..
Li avete mai visti fare il contrario con Apple?

Non hai letto l'articolo originale manco per il cazzo, vero? Mi pare tutto il contrario se leggi, e concludono con un sonoro: costa troppo.
Ma tanto è figo cercare sempre le dietrologie e negare anche dati oggettivi come possono essere le specifiche tecniche.

CrapaDiLegno
17-11-2016, 16:11
Ma non lo hanno fatto... chissà perchè? :)

Perché hanno preferito comparare la GPU di fascia superiore con quella meno che inferiore di AMD.
Cioè è come dire, compro una 480 solo perché la Titan X usa più energia :D

Polaris 11 e GP106 sono su due pianeti diversi. Avesse Apple sborsato i soldi per il GP106 vedi se nvidia non glielo downcloccava a 35W. Per andare il doppio di Polaris 11 con pari consumo (GPU grandi downcloccate sono più efficienti di quelle piccole a pari prestazioni, ma ovviamente costano di più).
Senza contare che esiste anche un GP107 se proprio uno vuole poco più del fondo del barile a tutti i costi.
Ma il braccino è corto e la assoluta necessità dei 5 stream ha fatto il resto.

Comunque l'articolo per come è scritto è abbastanza confusionario:
Per non creare confusione Apple potrebbe aver scelto AMD ipotizzando che gli utenti non avrebbero capito perché alcuni modelli potevano gestire due monitor 5K mentre altri modelli solo uno. In questo caso l'azienda di Cupertino propone i MacBook Pro da 13″ con grafica Intel e i MacBook Pro da 15″ con grafica AMD di cui rispettivamente i modelli da 13″ permettono di gestire un monitor 5K e i modelli da 15″ permettono di gestirne due.
Allora, lo ha fatto per avere sul mercato dei modelli con funzionalità omogenee o no?


Le specifiche DisplayPort 1.2 supportate da Intel e vari produttori di display, infatti, non offrono banda a sufficienza per la gestione di un monitor 5K a 60Hz. Una limitazione che potrà cambiare con l'avvento della DisplayPort 1.3, tecnologia purtroppo non ancora diffusa. Apple ha quindi sfruttato due stream DisplayPort 1.2 consentendo il collegamento del monitor su un singolo cavo Thunderbolt 3.


Oltretutto la scheda video di Nvidia supporta un massimo di quattro flussi simultanei e seppure Nvidia supporti DisplayPort 1.3, il controller Thunderbolt 3 e molti monitor supportano solo DisplayPort 1.2.
Allora, la tecnologia DP1.2 è troppo scarsa, ma nvidia ha la DP1.3 che è troppo avanti per i monitor esistenti...
Non so se sono io che non capisco i motivi, voi che avete tradotto con i piedi o Apple che si arrampica sugli specchi.
Fatto sta che se bisogna dare queste giustificazioni, meglio tacere e proseguire come se nulla fosse.

LorenzAgassi
17-11-2016, 16:14
Non hai letto l'articolo originale manco per il cazzo, vero? Mi pare tutto il contrario se leggi, e concludono con un sonoro: costa troppo.
Ma tanto è figo cercare sempre le dietrologie e negare anche dati oggettivi come possono essere le specifiche tecniche.


No non l'ho letto.. ho letto solo il post di m4x ..per quello chiedevo:stordita:

CrapaDiLegno
17-11-2016, 16:15
Non hai letto l'articolo originale manco per il cazzo, vero? Mi pare tutto il contrario se leggi, e concludono con un sonoro: costa troppo.
Ma tanto è figo cercare sempre le dietrologie e negare anche dati oggettivi come possono essere le specifiche tecniche.

Che sia il costo è palese a tutti e quindi ci si chiede il perché delle altre patetiche giustificazioni.
Senza trascurare che farne una questione di costo per un portatile che costa quasi il doppio di un PC simile mi sembra un'altra presa per il "cuculo".
Ma ovviamente gli utenti Apple sono contenti di pagare di più per avere meno e quindi che siano ancora più contenti di questa scelta.

m4x!
17-11-2016, 16:23
Che sia il costo è palese a tutti e quindi ci si chiede il perché delle altre patetiche giustificazioni.
Senza trascurare che farne una questione di costo per un portatile che costa quasi il doppio di un PC simile mi sembra un'altra presa per il "cuculo".
Ma ovviamente gli utenti Apple sono contenti di pagare di più per avere meno e quindi che siano ancora più contenti di questa scelta.

Sono d'accordo. Per vivere programmo e lo faccio usando 2 schermi esterni, più quello del portatile. Al momento sono costretto a usare un solo schermo 4k esterno più quello interno. Suggerimenti di portatili che supportano 2 schermi 4k/5k senza problemi? ( a parte il macbook pro in oggetto) Ovviamente DP 1.2(il monitor LG che possiedo è 1.2) visto che il DP1.3 per quanto vecchio è inesistente sul mercato.

Phoenix Fire
17-11-2016, 16:33
Ma non lo hanno fatto... chissà perchè? :)
come detto da altri il motivo è palesemente il costo
Sono d'accordo. Per vivere programmo e lo faccio usando 2 schermi esterni, più quello del portatile. Al momento sono costretto a usare un solo schermo 4k esterno più quello interno. Suggerimenti di portatili che supportano 2 schermi 4k/5k senza problemi? ( a parte il macbook pro in oggetto) Ovviamente DP 1.2(il monitor LG che possiedo è 1.2) visto che il DP1.3 per quanto vecchio è inesistente sul mercato.

ma il nuovo mbp ha dp1.3 o no?

m4x!
17-11-2016, 16:43
come detto da altri il motivo è palesemente il costo


ma il nuovo mbp ha dp1.3 o no?

Come scritto ovunque ha dp1.2... Per raggiungere quelle risoluzioni usa il doppio stream dp1.2.

Phoenix Fire
17-11-2016, 16:44
Come scritto ovunque ha dp1.2... Per raggiungere quelle risoluzioni usa il doppio stream dp1.2.

non capivo se ha solo dp1.2 o ha anche la possibilità di usare dp1.3 con hw compatibile

LorenzAgassi
17-11-2016, 16:46
non capivo se ha solo dp1.2 o ha anche la possibilità di usare dp1.3 con hw compatibile


Per la Version 1.3 doveva optare per GPU Nvidia ma voleva tirare la cinghia con AMD..per alzare gli utili di vendita oltrechè anche il prezzo al pubblico

Free Gordon
17-11-2016, 16:46
Da amante della tecnologia e da fruitore (non di quella all'ultimo grido..cmq), davvero non capisco perché si debba sprecare del tempo e del denaro a spiegare perché Apple abbia scelto AMD invece che Nvidia per le GPU dei MacPRO...

Mica è la prima volta che Apple monta AMD..no? :)

Questi articoli mi lasciano sempre basito... :confused:

E oltretutto ci sono anche una sfilza di reply sul perché e sul per come questa cosa sia giusta o no e del perché e del per come sia stata fatta! :rotfl:

Buona giornata a tutti eh. :O

m4x!
17-11-2016, 16:50
Per la Version 1.3 doveva optare per GPU Nvidia ma voleva tirare la cinghia con AMD..per alzare gli utili di vendita oltrechè anche il prezzo al pubblico

Tu non hai mai nemmeno provato a usare un monitor 4k/5k vero? Praticamente non ne esistono in commercio con DP1.3 e quando ci sono costano milioni o sono limitati. La scelta di usare DP1.2 è perché al momento è lo standard. Io li uso abitualmente e so tutti i problemi che ci sono oggi a usarli con portatili...

Phoenix Fire
17-11-2016, 16:52
Da amante della tecnologia e da fruitore (non di quella all'ultimo grido..cmq), davvero non capisco perché si debba sprecare del tempo e del denaro a spiegare perché Apple abbia scelto AMD invece che Nvidia per le GPU dei MacPRO...

Mica è la prima volta che Apple monta AMD..no? :)

Questi articoli mi lasciano sempre basito... :confused:

E oltretutto ci sono anche una sfilza di reply sul perché e sul per come questa cosa sia giusta o no e del perché e del per come sia stata fatta! :rotfl:

Buona giornata a tutti eh. :O
il problema è che molti software professionali, come la suite adobe, va molto meglio su schede Nvidia in quanto sfrutta molto CUDA (presente solo su schede verdi), quindi un macbook con Nvidia potrebbe essere molto più "performante". Uno dei pochi software ad andare meglio su AMD è proprio FinalCut che è sfrutta OpenCL, che sono multi hw ma con le quali va molto meglio AMD dato che Nvidia ottimizza meglio per il suo linguaggio

Free Gordon
17-11-2016, 17:01
il problema è che molti software professionali, come la suite adobe, va molto meglio su schede Nvidia in quanto sfrutta molto CUDA (presente solo su schede verdi), quindi un macbook con Nvidia potrebbe essere molto più "performante". Uno dei pochi software ad andare meglio su AMD è proprio FinalCut che è sfrutta OpenCL, che sono multi hw ma con le quali va molto meglio AMD dato che Nvidia ottimizza meglio per il suo linguaggio


Questa cosa a parità di consumi, è verificabile in qualche modo?

Come mai i Mac PRO (desktop) hanno anch'essi AMD? :fagiano:

dav117
17-11-2016, 17:24
Questa cosa a parità di consumi, è verificabile in qualche modo?

Come mai i Mac PRO (desktop) hanno anch'essi AMD? :fagiano:

scelte commerciali ;)

ceschi
17-11-2016, 17:30
Sono d'accordo. Per vivere programmo e lo faccio usando 2 schermi esterni, più quello del portatile. Al momento sono costretto a usare un solo schermo 4k esterno più quello interno. Suggerimenti di portatili che supportano 2 schermi 4k/5k senza problemi? ( a parte il macbook pro in oggetto) Ovviamente DP 1.2(il monitor LG che possiedo è 1.2) visto che il DP1.3 per quanto vecchio è inesistente sul mercato.

In verità di 4K ne può supportare 4 :D

Schwarzk
17-11-2016, 17:36
Tu non hai mai nemmeno provato a usare un monitor 4k/5k vero? Praticamente non ne esistono in commercio con DP1.3 e quando ci sono costano milioni o sono limitati. La scelta di usare DP1.2 è perché al momento è lo standard. Io li uso abitualmente e so tutti i problemi che ci sono oggi a usarli con portatili...

Pensa che oggi a me ha chiesto come riuscissi a lavorare file raw con soli 4GB di ram in un vecchio iMac del 2009 che avevo.
Non gli ho risposto, è evidente che si diverte a far uscire dalle staffe gli utenti.
Il bello è che alla fine aggiunge sempre: "per capire eh" con tanto di faccina..:stordita:
Tipico comportamento da perfetto troll.

LorenzAgassi
17-11-2016, 17:59
Tu non hai mai nemmeno provato a usare un monitor 4k/5k vero? Praticamente non ne esistono in commercio con DP1.3 e quando ci sono costano milioni o sono limitati. La scelta di usare DP1.2 è perché al momento è lo standard. Io li uso abitualmente e so tutti i problemi che ci sono oggi a usarli con portatili...


Quanti pollici il monitor 5K che usi? Per che tipo di utilizzo ti si rende necessario scalando i DPI di sistema?



Pensa che oggi a me ha chiesto come riuscissi a lavorare file raw con soli 4GB di ram in un vecchio iMac del 2009 che avevo.
Non gli ho risposto, è evidente che si diverte a far uscire dalle staffe gli utenti.
Il bello è che alla fine aggiunge sempre: "per capire eh" con tanto di faccina..:stordita:
Tipico comportamento da perfetto troll.



"Lavori" in Photoediting su files .Raw con 4GB di Ram che solo OSX ne occupa 2/3 di quella Ram.
Probabile farai anche Video Editing 4K sempre con 4GB di Ram di cui non ne rimangono liberi nemmeno 1GB

Raghnar-The coWolf-
17-11-2016, 18:16
Mi sembra francamente molto strano che 1 stream DP 1.3 non possa essere trasformato in dual channel 1.2 per essere compatibile col TB3, considerando che era proprio questa l'intenzione originale dello standard O_o

danieleg.dg
17-11-2016, 19:14
Tu non hai mai nemmeno provato a usare un monitor 4k/5k vero? Praticamente non ne esistono in commercio con DP1.3 e quando ci sono costano milioni o sono limitati. La scelta di usare DP1.2 è perché al momento è lo standard. Io li uso abitualmente e so tutti i problemi che ci sono oggi a usarli con portatili...

Ma la apple visto che è a quanto pare è sempre avanti avrebbe potuto usare la DP1.3, tanto è comunque retrocompatibile.

Simonex84
17-11-2016, 19:33
Quanti pollici il monitor 5K che usi? Per che tipo di utilizzo ti si rende necessario scalando i DPI di sistema?


Ma quante domande..... mi ricorda tanto.......

http://www.hwupgrade.it/forum/member.php?u=508037

Ci ho preso? :asd:

m4x!
17-11-2016, 19:52
Ma la apple visto che è a quanto pare è sempre avanti avrebbe potuto usare la DP1.3, tanto è comunque retrocompatibile.

E ma porca miseria, leggere almeno le specifiche thunderbolt 3( che la apple usa attraverso le usb-c) https://thunderbolttechnology.net/tech/faq, è solo DP1.2. Volendo citare wikipedia " The Thunderbolt 3 connection standard was originally to include support for DisplayPort 1.3, but the final release ended up only including support for version 1.2.".
Purtroppo il mondo > 2k è ancora acerbo.

Cfranco
17-11-2016, 20:52
Tu non hai mai nemmeno provato a usare un monitor 4k/5k vero? Praticamente non ne esistono in commercio con DP1.3 e quando ci sono costano milioni o sono limitati. La scelta di usare DP1.2 è perché al momento è lo standard. Io li uso abitualmente e so tutti i problemi che ci sono oggi a usarli con portatili...

Infatti Apple è celebre per tenere in grande considerazione le spese dei suoi utenti garantendo che i nuovi prodotti siano sempre retrocompatibili e si guardano bene dall' imporre standard troppo nuovi, troppo costosi e poco usati :O

Oppure è solo che Apple non aveva pronto un monitor 5K con la connessione DP 1.3 ;)

m4x!
17-11-2016, 21:24
Infatti Apple è celebre per tenere in grande considerazione le spese dei suoi utenti garantendo che i nuovi prodotti siano sempre retrocompatibili e si guardano bene dall' imporre standard troppo nuovi, troppo costosi e poco usati :O

Oppure è solo che Apple non aveva pronto un monitor 5K con la connessione DP 1.3 ;)
Se leggi un commento sopra il tuo vedi che lo standard thunderbolt 3, è solo DP1.2... Usb-c è thunderbolt, so che può essere complesso da capire, ma tutti i produttori sono costretti a questi compromessi, apple compresa per quanto schifo le possa fare.
Sarei l'uomo più felice del mondo se qualcuno mi desse un DP1.3 e sicuramente avrebbe i miei soldi immediatamente. Per fare un esempio, http://www.dell.com/it/p/xps-15-9550-laptop/pd?ref=PD_OC, stesso discorso...

Vul
17-11-2016, 21:33
a me suona di gran paraculata visto che pascal è 2 volte più efficiente di qualsiasi grafica amd

Questo non è corretto, dipende dal chip, e i chip migliori li mettono nel segmento professional e notebook:

https://www.youtube.com/watch?v=-5dJD-fLfk8

TripleX
17-11-2016, 23:31
Apple ed il suo declino in ogni settore e le leggende metropolitane finalmente smentite da numeri
iPhone e iPad si impuntano molto più spesso dei dispositivi Android
http://www.appy-geek.com/Web/ArticleWeb.aspx?regionid=6&articleid=77809892&source=whatsapp
:mc: :sofico:

lucusta
18-11-2016, 00:17
il problema è che molti software professionali, come la suite adobe, va molto meglio su schede Nvidia in quanto sfrutta molto CUDA (presente solo su schede verdi), quindi un macbook con Nvidia potrebbe essere molto più "performante". Uno dei pochi software ad andare meglio su AMD è proprio FinalCut che è sfrutta OpenCL, che sono multi hw ma con le quali va molto meglio AMD dato che Nvidia ottimizza meglio per il suo linguaggio

prova ad usare CUDA con Pascal, che cosi' ci facciamo quattro risate...
e' rimasto un discorso valido solo se sei FP32, FP16 e FP64 sono state praticamente eliminate su Pascal; li vuoi? usi le schede PRO.

AMD invece ha la possibilità di sfruttare ottimamente FP16, al doppio d FP32, e comunque ha un rapporto FP64-FP32 di 1:16, contro 1:256 di Pascal...

Apple non ha scelto AMD solo per la potenza grafica ottenibile da nvidia con un chip dedicato, ma per il fatto che avrebbe dovuto dirottare sulle Pascal GP10B, che in primo luogo ancora non ci sono in formato portatile, che sono un taglio esagerato per un portatile e soprattutto che costano un fucilata già in versione desktop, figurati mobile...

va bene che quel portatite di PRO ha solo il nome, ma almeno dargli un minimo di parvenza.

poi Apple a didchiarato che vuole portare tutto su OpenCL, e che CUDA non e' la strada da seguire... vedi tu.

e Adobe funziona ugualmente bene con OCL.

axxex
18-11-2016, 05:09
Io invece vorrei cantarne quattro ad Apple ed esprimere i miei motivi nel perché on sceglierò un Apple Macbook fake pro per le mie prossime produzioni musicali!

bonzoxxx
18-11-2016, 06:34
Domanda sciocca (buongiorno a tutti) una comparativa di GPGPU tra questa AMD e una pascal semi-equivalente ci sta? Anche se una pascal equivalente non esiste.

Non sono pro-Apple, ma direi che ad occhio la scelta di questa GPU non mi sembra malaccio :)

lucusta
18-11-2016, 07:59
Pascal GP10A, quello che trovi nel GP104-106-107 è un'architettura prettamente da gioco.
nvidia ne ha limitato fortemente l'uso con software professionali riducendo drasticamente le possibilità in FP16 e FP64.
rimangono le FP32 (d'altronde i giochi su PC girano a questa precisione), ma piu' che altro e' ambito grafico, nemmeno troppo spinto.
a 16 bit fà 1/128 rispetto a 32 bit, a 64 1/256, non conviene proprio...
c'e' qualcuno che credo sia riuscito ad usare le dll di maxwell, che permettono di usare FP32 in modalità FP16, riuscendo ad avere quantomeno 1:1 sul 16 bit e 1:2 sul 64 bit, ma... non ti saprei dire con quanti software e con che versione cuda funziona questo workaround.
esplicitamente dovresti usare le vecchie Telsa basate su Maxwell PRO o quelle basate su GP10B (ma per ora sono decisamente poche schede e sul mercato ci sono solo la parte alto di gamma).
quindi difficile che troverai una comparativa appropriata per il GPGPU.

ed è essenzialmente per questa ragione che trovi AMD nei mac, oltre che per la compatibilità piu' facile con gli schermi ad alta risoluzione (ma non era difficile aggirare l'ostacolo anche con una Pascal): le Pascal da gioco non sono schede su cui puoi far girare proficuamente software specializzati, e quelle che potrebbero essere costruite con i Cuda cores PRO non sono esplicitamente ne economiche ne parche in consumo, oltre al fatto che Nvidia per ora non fà proprio questi chip.

AlexSwitch
18-11-2016, 09:03
Ma questi di Ars Tecnica sempre a difendere Apple etc etc scrivendo papiri ..come se gli si toccasse ogni volta una figlia..
Li avete mai visti fare il contrario con Apple?

Diverse volte... sia con articoli in proprio, l'ultimo è la recensione del MBP 2016 senza touchbar, oppure riportando commenti e recensioni di altri giornalisti come Mossberg, il quale da diverso tempo è particolarmente critico con Apple.

Ti consiglio di leggerli attentamente ;)

AlexSwitch
18-11-2016, 09:08
Che sia il costo è palese a tutti e quindi ci si chiede il perché delle altre patetiche giustificazioni.
Senza trascurare che farne una questione di costo per un portatile che costa quasi il doppio di un PC simile mi sembra un'altra presa per il "cuculo".
Ma ovviamente gli utenti Apple sono contenti di pagare di più per avere meno e quindi che siano ancora più contenti di questa scelta.

Ne sei così sicuro? Con questi MacBook Pro Apple si è presa una sonora ondata di critiche anche da diversi Apple fan, sia per il prezzo ingiustificatamente alto, che per le scelte adottate. Tutti concordano che, per dirla nello stile Apple, questi sono i MacBook più cari di sempre!!!

GTKM
18-11-2016, 09:11
Ne sei così sicuro? Con questi MacBook Pro Apple si è presa una sonora ondata di critiche anche da diversi Apple fan, sia per il prezzo ingiustificatamente alto, che per le scelte adottate. Tutti concordano che, per dirla nello stile Apple, questi sono i MacBook più cari di sempre!!!

Non è tanto il fatto di essere cari. Quanto che, evidentemente, stavolta molti concordano sul fatto che siano eccessivamente sovrapprezzati.

Phoenix Fire
18-11-2016, 09:15
prova ad usare CUDA con Pascal, che cosi' ci facciamo quattro risate...
e' rimasto un discorso valido solo se sei FP32, FP16 e FP64 sono state praticamente eliminate su Pascal; li vuoi? usi le schede PRO.

AMD invece ha la possibilità di sfruttare ottimamente FP16, al doppio d FP32, e comunque ha un rapporto FP64-FP32 di 1:16, contro 1:256 di Pascal...

Apple non ha scelto AMD solo per la potenza grafica ottenibile da nvidia con un chip dedicato, ma per il fatto che avrebbe dovuto dirottare sulle Pascal GP10B, che in primo luogo ancora non ci sono in formato portatile, che sono un taglio esagerato per un portatile e soprattutto che costano un fucilata già in versione desktop, figurati mobile...

va bene che quel portatite di PRO ha solo il nome, ma almeno dargli un minimo di parvenza.

poi Apple a didchiarato che vuole portare tutto su OpenCL, e che CUDA non e' la strada da seguire... vedi tu.

e Adobe funziona ugualmente bene con OCL.
grazie delle spiegazioni (anche se sulla parte FP non ci ho capito molto), ma gentilmente puoi usare un tono meno aggressivo?
Comunque devo ritrovare un vecchio confronto tra due mbp, uno con nvidia e uno con AMD dove si mostrava come alcuni software adobe (soprattutto premiere) girasse meglio sulla versione nvidia e la cosa all'epoca fu spiegata con un Adobe sfrutta meglio cuda che opencl, non sto facendo colpa a amd o a apple, semplicemente che Adobe ha voluto favorire nvidia


Ne sei così sicuro? Con questi MacBook Pro Apple si è presa una sonora ondata di critiche anche da diversi Apple fan, sia per il prezzo ingiustificatamente alto, che per le scelte adottate. Tutti concordano che, per dirla nello stile Apple, questi sono i MacBook più cari di sempre!!!

:D :D :D :D

Simonex84
18-11-2016, 09:15
Io concordo sul fatto che non sia Pro, costasse 1000€ meno sarebbe perfetto da inserire nella linea MacBook "normale"

AlexSwitch
18-11-2016, 09:16
Quanti pollici il monitor 5K che usi? Per che tipo di utilizzo ti si rende necessario scalando i DPI di sistema?







"Lavori" in Photoediting su files .Raw con 4GB di Ram che solo OSX ne occupa 2/3 di quella Ram.
Probabile farai anche Video Editing 4K sempre con 4GB di Ram di cui non ne rimangono liberi nemmeno 1GB

E questa dove l'hai letta?
OS X/macOS una volta lanciati non occupano più 1.8Gb al massimo di cui circa 1.4Gb al max sono " wired " ovvero che resteranno sempre in memoria e non verrano swappati quando dovesse essere necessario.

Lo hai mai usato un Mac?

MiKeLezZ
18-11-2016, 09:59
prova ad usare CUDA con Pascal, che cosi' ci facciamo quattro risate...
e' rimasto un discorso valido solo se sei FP32, FP16 e FP64 sono state praticamente eliminate su Pascal; li vuoi? usi le schede PRO.

AMD invece ha la possibilità di sfruttare ottimamente FP16, al doppio d FP32, e comunque ha un rapporto FP64-FP32 di 1:16, contro 1:256 di Pascal...

Apple non ha scelto AMD solo per la potenza grafica ottenibile da nvidia con un chip dedicato, ma per il fatto che avrebbe dovuto dirottare sulle Pascal GP10B, che in primo luogo ancora non ci sono in formato portatile, che sono un taglio esagerato per un portatile e soprattutto che costano un fucilata già in versione desktop, figurati mobile...

va bene che quel portatite di PRO ha solo il nome, ma almeno dargli un minimo di parvenza.

poi Apple a didchiarato che vuole portare tutto su OpenCL, e che CUDA non e' la strada da seguire... vedi tu.

e Adobe funziona ugualmente bene con OCL.Non capisco il problema che ti stai ponendo, le FP16 sono obsolete ed insufficienti per calcoli di qualsiasi tipo (pure quelli grafici, in cui una volta venivano usate), sono usate solo nelle reti neurali di datacenter fuori dalla comprensione umana per massimizzarne le performance/watt e la grandezza del database.

Rimangono le FP32, pienamente usabili, e le FP64 con qualche compromesso (sono 1:32 esattamente come erano in Maxwell... ma rispetto a Maxwell le VGA Pascal vanno il 50% in più).

I software commerciali vanno di FP32 ed infatti nei benchmark di compute le 1070 spaccano il culo sia alla vecchia 980ti che alla ATI R9.

MiKeLezZ
18-11-2016, 10:02
grazie delle spiegazioni (anche se sulla parte FP non ci ho capito molto), ma gentilmente puoi usare un tono meno aggressivo?
Comunque devo ritrovare un vecchio confronto tra due mbp, uno con nvidia e uno con AMD dove si mostrava come alcuni software adobe (soprattutto premiere) girasse meglio sulla versione nvidia e la cosa all'epoca fu spiegata con un Adobe sfrutta meglio cuda che opencl, non sto facendo colpa a amd o a apple, semplicemente che Adobe ha voluto favorire nvidia

Ma infatti è così, test del genere li trovi ovunque con una googlata, è risaputo che CUDA vada meglio, anche perché NVIDIA spesso utilizza le sue risorse interne per aiutare gli sviluppatori per sfruttarlo al meglio

https://forums.adobe.com/servlet/JiveServlet/showImage/2-7734377-787024/Adobe+OpenCL+Performance+Shock.png

CrapaDiLegno
18-11-2016, 10:09
Pascal GP10A, quello che trovi nel GP104-106-107 è un'architettura prettamente da gioco.
nvidia ne ha limitato fortemente l'uso con software professionali riducendo drasticamente le possibilità in FP16 e FP64.
rimangono le FP32 (d'altronde i giochi su PC girano a questa precisione), ma piu' che altro e' ambito grafico, nemmeno troppo spinto.
a 16 bit fà 1/128 rispetto a 32 bit, a 64 1/256, non conviene proprio...
c'e' qualcuno che credo sia riuscito ad usare le dll di maxwell, che permettono di usare FP32 in modalità FP16, riuscendo ad avere quantomeno 1:1 sul 16 bit e 1:2 sul 64 bit, ma... non ti saprei dire con quanti software e con che versione cuda funziona questo workaround.
esplicitamente dovresti usare le vecchie Telsa basate su Maxwell PRO o quelle basate su GP10B (ma per ora sono decisamente poche schede e sul mercato ci sono solo la parte alto di gamma).
quindi difficile che troverai una comparativa appropriata per il GPGPU.

ed è essenzialmente per questa ragione che trovi AMD nei mac, oltre che per la compatibilità piu' facile con gli schermi ad alta risoluzione (ma non era difficile aggirare l'ostacolo anche con una Pascal): le Pascal da gioco non sono schede su cui puoi far girare proficuamente software specializzati, e quelle che potrebbero essere costruite con i Cuda cores PRO non sono esplicitamente ne economiche ne parche in consumo, oltre al fatto che Nvidia per ora non fà proprio questi chip.

Tutto molto bello se non fosse che Pascal fa in FP64 1/32 mentre Polaris 1/24, quindi praticamente sono inusabili entrambi per questo tipo di calcolo.
l'FP16, che è (ri)nato ieri per uso particolare nel deep learning non ha alcun senso nel mercato consumer.
Quindi stai tirando in ballo cose che non c'entrano assolutamente nulla con le capacità di far girare SW professionale che è TUTTO basato su calcoli FP32.

Lo scontro è tra CUDA e OpenCL. Sappiamo che il secondo standard è stato lanciato proprio da Apple e che nvidia non è che lo consideri molto. Ne rimane giusto compatibile senza sforzarsi di accelerarlo fino in fondo.
AMD invece tenta di supportare OpenCL al meglio per avere una chance di avere qualche supporto di qualche SW professionale.

Non vi è alcun dubbio che a parità di prestazioni l'architettura nvidia consumi meno, talvolta persino sensibilmente meno. Quindi di tutte le giustificazioni scritte nell'articolo quella dei consumi è evidentemente falsa. Da che uno si chiede perché le altre sciocchezze dovrebbero essere vere. E prima di tutto perché mai Apple debba trovare giustificazioni per aver usato un componente invece che un altro.
Probabilmente hanno la coda di paglia e sanno che non è il prodotto migliore attualmente disponibile, ma costa meno e quindi si sono prodigati a dire il perché lo hanno scelto spendendo parole inutili con le solite mirabolanti fregnacce Apple che è in grado di incantare i suoi utenti ("non è il telefono ad avere problemi, siete voi che lo impugnate male!" oppure "il tuo pollice va da qui a qui" a che serve uno schermo più grande e scomodo?).
D'altronde uno che compra un MacPro come workstation è giusto che paghi quelle cifre per ricevere quella roba.

joshthemajor
18-11-2016, 10:10
"Se spendo il top per un portatile Apple mi aspetto poi di avere il top di componentistica, non un giocatore di serie B perché quello di serie A costa troppo "

Fixo io:

Se spendo qualsiasi cifra per un portatile Apple mi aspetto un'elegante macchina da Facebook con una buona autonomia della batteria ed una buona assistenza.

STOP

LorenzAgassi
18-11-2016, 10:17
Ma quante domande..... mi ricorda tanto.......
http://www.hwupgrade.it/forum/member.php?u=508037
Ci ho preso? :asd:


Lasciando perdere il fatto che non capisco cosa ricordi e cosa c'entri con lo scaling dei DPI il tuo quote con le solite faccine ridenti e senza senso, le domande le ho fatte per questo motivo:

https://support.apple.com/en-us/HT202471
http://www.eizoglobal.com/support/compatibility/dpi_scaling_settings_mac_os_x/

Non so se sapete che costruire immagini a 96dpi su pannelli a cosi' alta risoluzione necessita di uno scaling Up dai canonici 96dpi default di sistema altrimenti non si vedrebbe niente se non con un cannocchiale ed il ragazzo se non erro ha detto che programma, non fa Photoediting o il Video Maker per sfruttare a piena area la risoluzione 5K del Monitor nell'edit di foto-grammi o di Video in un riquadro per avere pù spazio per la timeline e tutto il resto nel software di Editing Video



E questa dove l'hai letta?
OS X/macOS una volta lanciati non occupano più 1.8Gb al massimo di cui circa 1.4Gb al max sono " wired " ovvero che resteranno sempre in memoria e non verrano swappati quando dovesse essere necessario.

Lo hai mai usato un Mac?



Si, e con le ultime versioni di Osx 64bit in Monitoraggio Attività la Ram occupata dal sistema è sempre nell'ordine dei 3 o 4GB totali tra la Swap e la Wired quando aperti ed utilizzati i Software che si utilizzano per lavorare etc e che caricano molta più roba a livello librerie di sistema..

Se poi volete dare a capire che i computer Apple con le ultime release di Osx ( non di certo gli OSX di 9 anni fa a 32bit etc ) possono lavorare in quel modo ancora con 2 o 3GB di Ram, la cosa sarebbe sicuramente ottima per riformare l'intero mondo dell'informatica ovvero che nel 2016 per lavorare su files .RAW o in Video Editing 720p HD o FHD 1080p in modo decente e senza swapping/impuntamentei vari etc almeno 8GB di Ram non servono a niente ma funziona tutto al top sempre con 4GB ..all'infinito

Se fosse cosi' ..ben venga e la Ram che vendono non serve a niente

m4x!
18-11-2016, 10:51
Lasciando perdere il fatto che non capisco cosa ricordi e cosa c'entri con lo scaling dei DPI il tuo quote con le solite faccine ridenti e senza senso, le domande le ho fatte per questo motivo:

https://support.apple.com/en-us/HT202471
http://www.eizoglobal.com/support/compatibility/dpi_scaling_settings_mac_os_x/

Non so se sapete che costruire immagini a 96dpi su pannelli a cosi' alta risoluzione necessita di uno scaling Up dai canonici 96dpi default di sistema altrimenti non si vedrebbe niente se non con un cannocchiale ed il ragazzo se non erro ha detto che programma, non fa Photoediting o il Video Maker per sfruttare a piena area la risoluzione 5K del Monitor nell'edit di foto-grammi o di Video in un riquadro per avere pù spazio per la timeline e tutto il resto nel software di Editing Video


Per quanto riguarda i DPI, la cosa migliore nel caso apple(per limiti di macos) per un 4k è impostare come risoluzione 5760(3840 * 1.5) per sbloccare la modalità 2K HDPI, avendo quindi uno scale di 1.5., per poi usarlo a 2k ma più definito. Lo faccio con Monitor da 28" in su ovviamente.
Lavorando con microservizi devo tenere aperti contemporaneamente almeno 2-3 debugger e 10-15 finestre di terminale. Aggiungi un numero innumerevole di text-editor e vedi come qualsiasi superficie per me possa essere piccola. Senza nulla togliere a chi fa editing video...

AlexSwitch
18-11-2016, 11:50
Si, e con le ultime versioni di Osx 64bit in Monitoraggio Attività la Ram occupata dal sistema è sempre nell'ordine dei 3 o 4GB totali tra la Swap e la Wired quando aperti ed utilizzati i Software che si utilizzano per lavorare etc e che caricano molta più roba a livello librerie di sistema..

Se poi volete dare a capire che i computer Apple con le ultime release di Osx ( non di certo gli OSX di 9 anni fa a 32bit etc ) possono lavorare in quel modo ancora con 2 o 3GB di Ram, la cosa sarebbe sicuramente ottima per riformare l'intero mondo dell'informatica ovvero che nel 2016 per lavorare su files .RAW o in Video Editing 720p HD o FHD 1080p in modo decente e senza swapping/impuntamentei vari etc almeno 8GB di Ram non servono a niente ma funziona tutto al top sempre con 4GB ..all'infinito

Se fosse cosi' ..ben venga e la Ram che vendono non serve a niente

E qui " casca l'asino "... Perchè la memoria wired è quella usata dai servizi di base di OS X, dal Kernel e dalle sue estensioni, dalle estensioni aggiuntive, e dalla GUI... Ovvero OS X!! Infatti questo tipo di memoria una volta allocata non può più essere spostata e tantomeno scappata o compressa. E più di 1.5Gb di memoria wired da quando OS X è stato portato a 64bit ( dalla versione 10.6 Snow Leopard ) non ne ho mai visti... Ci possono essere dei picchi quando si usano estensioni aggiuntive di OS X richieste da determinati programmi o processi, ma raramente si superano i 2Gb di memoria wired allocata.
Più che altro con le versioni più recenti di OS X è stato spinto ulteriormente l'uso della app cache su ram, ottimizzando i processi di gestione della " memoria inattiva ".

Ma lo hai mai usato seriamente OS X??

Tedturb0
18-11-2016, 11:52
Ma quante domande..... mi ricorda tanto.......

http://www.hwupgrade.it/forum/member.php?u=508037

Ci ho preso? :asd:

Non so, ma ho visto che i suoi primi post li ha spesi per fanboyare su qualche cinafonino

LorenzAgassi
18-11-2016, 12:25
E qui " casca l'asino "... Perchè la memoria wired è quella usata dai servizi di base di OS X, dal Kernel e dalle sue estensioni, dalle estensioni aggiuntive, e dalla GUI... Ovvero OS X!! Infatti questo tipo di memoria una volta allocata non può più essere spostata e tantomeno scappata o compressa. E più di 1.5Gb di memoria wired da quando OS X è stato portato a 64bit ( dalla versione 10.6 Snow Leopard ) non ne ho mai visti... Ci possono essere dei picchi quando si usano estensioni aggiuntive di OS X richieste da determinati programmi o processi, ma raramente si superano i 2Gb di memoria wired allocata.
Più che altro con le versioni più recenti di OS X è stato spinto ulteriormente l'uso della app cache su ram, ottimizzando i processi di gestione della " memoria inattiva ".

Ma lo hai mai usato seriamente OS X??


Difatti come ti ho scritto ci vorresti tu a riformare il mondo informatico in Silicon Valley..nel senso che chi vende Ram potrebbe anche chiudere i battenti e fallire che tanto a capire il succo di quello che vorresti affermare TU, oggi ovvero nel 2016 su Osx 64bit si farebbe tutto al Top e senza nessun minimo problema sia nell'editing di files .Raw che in Editing video FHD etc anche con 3 o 4GB di Ram

Insomma su Osx Ram aggiuntiva fino a 8 o 16 GB e oltre etc a cosa servirebbe? A niente
Chi oggi vende Ram per Mac potrebbe chiudere subito il magazzino .. e se fosse solo per la Ram, cambiare anche mestiere.

Schwarzk
18-11-2016, 13:05
E qui " casca l'asino "... Perchè la memoria wired è quella usata dai servizi di base di OS X, dal Kernel e dalle sue estensioni, dalle estensioni aggiuntive, e dalla GUI... Ovvero OS X!! Infatti questo tipo di memoria una volta allocata non può più essere spostata e tantomeno scappata o compressa. E più di 1.5Gb di memoria wired da quando OS X è stato portato a 64bit ( dalla versione 10.6 Snow Leopard ) non ne ho mai visti... Ci possono essere dei picchi quando si usano estensioni aggiuntive di OS X richieste da determinati programmi o processi, ma raramente si superano i 2Gb di memoria wired allocata.
Più che altro con le versioni più recenti di OS X è stato spinto ulteriormente l'uso della app cache su ram, ottimizzando i processi di gestione della " memoria inattiva ".

Ma lo hai mai usato seriamente OS X??

Seriamente? Dubito...
Lo avrà usato in qualche posto dove te li fanno provare, avrà lanciato monitoraggio attività e ha tirato le sue personali conclusioni.
Mi domando come diavolo ho fatto io fino a poco tempo fa con il mio vetusto iMac del 2009 e 4GB a spararmi migliaia di foto RAW con il programma CaptureNX-D della Nikon o, in alternativa, l'altro ottimo Capture Phase One senza che si inchiodasse mai nulla.
Oggi mettono RAM aggiuntiva sui MAC? Tanto meglio, ma comunque me ne resta libera sempre un fottio usando gli stessi programmi!
Ovviamente mica la levo, è saldata e quindi lì rimane...:O

LorenzAgassi
18-11-2016, 13:20
Seriamente? Dubito...
Lo avrà usato in qualche posto dove te li fanno provare, avrà lanciato monitoraggio attività e ha tirato le sue personali conclusioni.
Mi domando come diavolo ho fatto io fino a poco tempo fa con il mio vetusto iMac del 2009 e 4GB a spararmi migliaia di foto RAW con il programma CaptureNX-D della Nikon o, in alternativa, l'altro ottimo Capture Phase One senza che si inchiodasse mai nulla.
Oggi mettono RAM aggiuntiva sui MAC? Tanto meglio, ma comunque me ne resta libera sempre un fottio usando gli stessi programmi!
Ovviamente mica la levo, è saldata e quindi lì rimane...:O


Io fossi in voi mi chiederei perchè ogni giorno vendono Ram per Mac in tutto il Mondo quando a sentire ma meglio capire voi, con 4GB anche nel 2016 e con l'OS + applicazioni @ 64bit, si lavorerebbe egregiamente anche con file .Raw e Video Editing FHD, come dici di fare tu, ( mentre a mio avviso il tuo computer arranca solamente) ... quindi oltre 4GB, ulteriore Ram non servirebbe mai piu' a niente ..nemmeno nel 2020 ad esempio e sempre grazie ad Osx che farebbe miracoli ( non trovo altri termini) ... quindi dato che oramai 4GB di Ram li hanno tutti da anni sul computer, oggi potrebbero chiudere tutti i negozi Online e non Online che vendono memoria x Mac perchè seguendo ed afferrando il vostro "discorso", non ne servirebbe più a nessuno .. mentre invece le cose non stanno cosi'.

Bisogna cercar di sforzarsi di capire..magari qualcuno ci riuscirà.

oatmeal
18-11-2016, 14:02
Io fossi in voi mi chiederei perchè ogni giorno vendono Ram per Mac in tutto il Mondo quando a sentire ma meglio capire voi, con 4GB anche nel 2016 e con l'OS + applicazioni @ 64bit, si lavorerebbe egregiamente anche con file .Raw e Video Editing FHD, come dici di fare tu, ( mentre a mio avviso il tuo computer arranca solamente) ... quindi oltre 4GB, ulteriore Ram non servirebbe mai piu' a niente ..nemmeno nel 2020 ad esempio e sempre grazie ad Osx che farebbe miracoli ( non trovo altri termini) ... quindi dato che oramai 4GB di Ram li hanno tutti da anni sul computer, oggi potrebbero chiudere tutti i negozi Online e non Online che vendono memoria x Mac perchè seguendo ed afferrando il vostro "discorso", non ne servirebbe più a nessuno .. mentre invece le cose non stanno cosi'.

Bisogna cercar di sforzarsi di capire..magari qualcuno ci riuscirà.

Se tu, nella tua ennesima incarnazione aka clone, scrivessi meno banalità e ovvietà sapresti che con 4 giga di RAM un qualunque OS è in grado di editare Raw anche pesanti. Vista la tua natura di Guru:mc: sapresti anche che è ovvio che con 8, 16 etc giga le cose si fanno in maniera decisamente migliore ma continui a scrivere ciò che il tuo ruolo da hater frustrato ti impone. Sei di una tristezza infinita

LorenzAgassi
18-11-2016, 14:12
ovvio che con 8, 16 etc giga le cose si fanno in maniera decisamente migliore ma continui a scrivere ciò che il tuo ruolo da hater frustrato ti impone. Sei di una tristezza infinita


Decisamente migliore esattamente. Quindi bisogna vedere come fa le cose in modo non migliore ovvero senza ulteriore Ram perchè il succo non è ottenere il risultato anche con la macchina che arranca ...ma come lo ottiene anche se poi alla fine ci arriva.
PS: non ho nessun ruolo, controbatto solo a quelli che vorrebbero far credere che OSx è come se andasse ad aria e la Ram oltre i 4GB non servirebbe a nessuno, seguendo i loro fili logici.. mentre invece nel mondo reale per quegli utilizzi, stanno tutti con 8 o 16GB proprio per quel decisamente migliore che hai giustamente scritto anche tu.

Schwarzk
18-11-2016, 14:23
Io fossi in voi mi chiederei perchè ogni giorno vendono Ram per Mac in tutto il Mondo quando a sentire ma meglio capire voi, con 4GB anche nel 2016 e con l'OS + applicazioni @ 64bit, si lavorerebbe egregiamente anche con file .Raw e Video Editing FHD, come dici di fare tu, ( mentre a mio avviso il tuo computer arranca solamente) ... quindi oltre 4GB, ulteriore Ram non servirebbe mai piu' a niente ..nemmeno nel 2020 ad esempio e sempre grazie ad Osx che farebbe miracoli ( non trovo altri termini) ... quindi dato che oramai 4GB di Ram li hanno tutti da anni sul computer, oggi potrebbero chiudere tutti i negozi Online e non Online che vendono memoria x Mac perchè seguendo ed afferrando il vostro "discorso", non ne servirebbe più a nessuno .. mentre invece le cose non stanno cosi'.

Bisogna cercar di sforzarsi di capire..magari qualcuno ci riuscirà.

Io fossi in te mi rileggerei per bene e poi avrei una risposta senza che me la debbano dare gli altri.
Io non ho mai parlato, da nessuna parte di editing video 4K. Quelli sono tutti viaggi mentali che ti stai facendo tu! Le mie non sono produzioni cinematografiche ma sono ad uso personale quindi me ne frego del tempo che impiego e se arranca o meno su un iMac di 8 anni fa.
Grazia al cavolo, uno recente e con 8 GB sarà certamente più efficiente, ma ora che c'è l'ho posso dire che non mi si è stravolta completamente la vita come pensi tu.
E' più veloce, come qualsiasi macchina prodotta 9 anni dopo, ma la mia esperienza d'uso con i programmi che uso non è stata stravolta ora che ne ho 8 perché la maggioparte, sono sempre liberi.
Come restano la gran parte liberi quando piazzo workflow di ore con file RAW della mia Reflex. Ed è anni che lo faccio e non mi sono mai incazzato una sola volta perché la macchina si inchiodava come pensi tu, tanto che non sono nemmeno corso ad aggiornare la RAM ma ho venduto la macchina, con l'esatto quantitativo montato di fabbrica. Pensa un po te...
Quindi perché vendono la RAM e i trattori?
Perché c'è gente che per usi specifici ne avrà bisogno. Risposta banale che più banale non si può!
Io di certo non mi vado a prendere un banco di RAM da 8GB per tenerne libero sempre oltre la metà. Come non mi vado a prendere un trattore per usarlo per andare a fare la spesa.
Quindi non capisco cosa vuoi dimostrare con sta storia della RAM.
Aspè...forse che per l'uso che ne fa qualcuno qua dentro gli basta un pc da 300€?
Bhè, ti risparmio sta cosa...uso il Mac perché ha un sistema operativo che mi piace, che gestisce le risorse a disposizione non bene, ma benissimo e infine, ha programmi adatti all'uso che ne devo fare io e che su windows sono inesistenti.
Stammi bene ora...e mi raccomando. Continua pure da solo la tua crociata anti Apple che a me la cosa non mi tange minimamente.
Io continuerò ad usare i loro prodotti. Quando mi stufo, passerò a quello che offre il mercato (sempre se c'è di meglio).

LorenzAgassi
18-11-2016, 14:28
Io fossi in te mi rileggerei per bene e poi avrei una risposta senza che me la debbano dare gli altri.
Io non ho mai parlato, da nessuna parte di editing video 4K. Quelli sono tutti viaggi mentali che ti stai facendo tu! Le mie non sono produzioni cinematografiche ma sono ad uso personale quindi me ne frego del tempo che impiego e se arranca o meno su un iMac di 8 anni fa.



Perfetto allora meglio specifichi sempre: per te.... perchè io di gente che lavora con files .Raw e Video Editing con le ultime release di Osx 64bit + applicazioni Pro commerciali 64bit e 4GB di Ram non ne vedo da nessuna parte nella realtà..che sia Osx 64bit che Windows 7 64bit

Diciamo che va anche specificato come si lavora e con files Raw di quali dimensioni... idem in Editing Video magari a 800x600 et similia etc.

Schwarzk
18-11-2016, 14:50
Se edito i video della mia Action Cam (che non è certo una ciofeca 800x600) e i RAW della mia reflex da 12MPX senza problemi di sorta io sono a posto.
Non mi chiedo se la RAM mi basta e neppure vado a vedere in monitoraggio attività cosa succede.

Quelle sono menate tipiche chi chi usa altri sistemi operativi.
Io opero in maniera decisamente diversa, non mi stresso la vita e mi diverto. Ed è così da sempre sia prima con uno scrauso iMac e sia ora con una macchina più recente.
Funziona tutto senza impuntamenti? Si--->FINE.
Chi lavora con roba davvero pesante, e magari con file raw da 40 e passa mb, file 4K e montaggi video alla Pixar, penso che si attrezzerà in maniera completamente diversa e con macchina completamente diverse visto che deve tener conto anche del fattore guadagno.
Non è che ci vuole un genio e dei mega pipponi per capirlo.

Questo ad esempio non ha ne un MAcBookPro, e neppure un MacPro.
E non mi sembra certo il primo pivello che passa per la strada...
http://terrywhite.com/photographers-imac-retina-5k-vs-mac-pro/
Chiedi a lui cosa usa e quanta RAM usa...;)

fraquar
18-11-2016, 14:55
Pensa che oggi a me ha chiesto come riuscissi a lavorare file raw con soli 4GB di ram in un vecchio iMac del 2009 che avevo.
Non gli ho risposto, è evidente che si diverte a far uscire dalle staffe gli utenti.
Il bello è che alla fine aggiunge sempre: "per capire eh" con tanto di faccina..:stordita:
Tipico comportamento da perfetto troll.

Lui sarà troll ad avertelo chiesto ma sono curioso anche io di come fai a lavorare file raw con 4gb di ram.
Sono file raw da 1mp?

LorenzAgassi
18-11-2016, 15:01
Se edito i video della mia Action Cam (che non è certo una ciofeca 800x600) e i RAW della mia reflex da 12MPX senza problemi di sorta io sono a posto.
Non mi chiedo se la RAM mi basta e neppure vado a vedere in monitoraggio attività cosa succede.
Quelle sono menate tipiche chi chi usa altri sistemi operativi.
Io opero in maniera decisamente diversa, non mi stresso la vita e mi diverto. Ed è così da sempre sia prima con uno scrauso iMac e sia ora con una macchina più recente.
Chi lavora con roba davvero pesante, e magari con file raw da 40 e passa mb, file 4K e montaggi video alla Pixar, penso che si attrezzerà in maniera completamente diversa e con macchina completamente diverse visto che deve tener conto anche del fattore guadagno.
Non è che ci vuole un genio e dei mega pipponi per capirlo.




Guarda, da tutto quello che hai scritto e con 4GB di Ram ho capito solo che non lavori ma ti diletti a casa, quindi se fosse, anche col computer che arranca ti va bene lo stesso ..tanto prima o poi ottieni il tuo risultato ugualmente.

PS: sapere di avere la RAM giusta in base ai software Pro 64bit commerciali che si usano, in base a come si lavora e su cosa si lavora in termini di dimensione files .Raw o alla risoluzione del videoMovie + effetti vari in tempo reale etc, non è questione di aprire Task Manager di altri sistemi operativi come a dire dell'odiato Windows:D ..ma solo di sapere come deve essere espansa una macchina sia in capienza SSD ma soprattutto che in Ram perchè poi non arranchi ...in base al lavoro che si andrà a svolgere come specificato sopra.
Non a caso risulta che i nuovi MacBookPro escono con 16GB di Ram.Non vorrei che anche Apple non stia capendo più niente quando poteva invece e tranquillamente farli uscire con 4GB che tanto non sarebbe cambiato niente secondo le "vostre tesi".

fraquar
18-11-2016, 15:01
Se edito i video della mia Action Cam (che non è certo una ciofeca 800x600) e i RAW della mia reflex da 12MPX senza problemi di sorta io sono a posto.
Non mi chiedo se la RAM mi basta e neppure vado a vedere in monitoraggio attività cosa succede.

Quelle sono menate tipiche chi chi usa altri sistemi operativi.
Io opero in maniera decisamente diversa, non mi stresso la vita e mi diverto. Ed è così da sempre sia prima con uno scrauso iMac e sia ora con una macchina più recente.
Funziona tutto senza impuntamenti? Si--->FINE.
Chi lavora con roba davvero pesante, e magari con file raw da 40 e passa mb, file 4K e montaggi video alla Pixar, penso che si attrezzerà in maniera completamente diversa e con macchina completamente diverse visto che deve tener conto anche del fattore guadagno.
Non è che ci vuole un genio e dei mega pipponi per capirlo.

Questo ad esempio non ha ne un MAcBookPro, e neppure un MacPro.
E non mi sembra certo il primo pivello che passa per la strada...
http://terrywhite.com/photographers-imac-retina-5k-vs-mac-pro/
Chiedi a lui cosa usa e quanta RAM usa...;)

Ignora il mio messaggio precedente, non avevo letto questo tuo ultimo post.

Però dai, ma vaffanculo :D , stiamo parlando da due giorni e credevo che tu ci lavorassi.
Per hobby a qualità scadente grazie che ti bastano 4gb.
La prossima volta sii più specifico che magari la gente evita di attaccarti. :P

MiKeLezZ
18-11-2016, 15:04
Lui sarà troll ad avertelo chiesto ma sono curioso anche io di come fai a lavorare file raw con 4gb di ram.
Sono file raw da 1mp?Un RAW da 25MP sono 40MB e un BMP da 12000x8000 sono 800MB non vedo la difficoltà nel lavorare con 4GB di RAM

AlexSwitch
18-11-2016, 15:21
Difatti come ti ho scritto ci vorresti tu a riformare il mondo informatico in Silicon Valley..nel senso che chi vende Ram potrebbe anche chiudere i battenti e fallire che tanto a capire il succo di quello che vorresti affermare TU, oggi ovvero nel 2016 su Osx 64bit si farebbe tutto al Top e senza nessun minimo problema sia nell'editing di files .Raw che in Editing video FHD etc anche con 3 o 4GB di Ram

Insomma su Osx Ram aggiuntiva fino a 8 o 16 GB e oltre etc a cosa servirebbe? A niente
Chi oggi vende Ram per Mac potrebbe chiudere subito il magazzino .. e se fosse solo per la Ram, cambiare anche mestiere.

Mi dispiace ma tu non sai di cosa hai scritto... Non sai come funziona la gestione della memoria con questo OS e spari castronerie!! Tu ha scritto che solo OS X si prenderebbe 3/4 Gb di Ram e ciò è completamente falso e ti ho spiegato anche il perchè e come controllare!!

Stammi bene Paul!!

P.S. In OS X non è mai esistita la voce " memoria di sistema " come classificazione!!

Schwarzk
18-11-2016, 15:27
Guarda, da tutto quello che hai scritto e con 4GB di Ram ho capito solo che non lavori ma ti diletti a casa, quindi se fosse, anche col computer che arranca ti va bene lo stesso ..tanto prima o poi ottieni il tuo risultato ugualmente.


Come al solito te la canti e te la suoni da solo.
Sposti la discussione sul terreno a te più fertile per poi sparare le solite frasi senza senso logico.
Seconde te, e anche secondo l'altro tuo amico intervenuto in maniera a dir poco tempestiva (:D) con un iMac del 2009 e un core 2 duo ti metti a lavorare Files della Nikon D5? :D
Magari si riesce anche eh! Non ho provato e quindi non mi pronuncio come fai tu per partito preso dicendo che 4GB di RAM non ti bastano.
Piuttosto tu, sarebbe bello sapere che file mega galattici RAW elabori e quale lavoro fai per avere bisogno di tutta questa potenza di fuoco.
Io di amici fotografi che mettono sotto torchio le loro macchine ne conosco parecchi.
Ovviamente nessuno ha un iMac del 2009, chi lo aveva, non ha neppure aggiornato la RAM ma lo ha cambiato al volo con roba più recente.
Che strano vero? :D

Ti consiglio di dare un'occhiata al link che ti ho postato prima, perché da quello che scrivi, ho idea che non lo hai neppure aperto...;)

AlexSwitch
18-11-2016, 15:28
Tornando in topic, pare che le GPU AMD sui MacBook Pro 2016 stiano dando grossi problemi ai primi utenti che lo hanno iniziato ad usare con applicazioni professionali ( FinalCut X e Media Encoder di Adobe ). In sostanza le immagini sullo schermo vengono corrotte e il Mac si blocca... Apple parla di problemi alla GPU senza però specificare e questi siano dovuti ai driver o direttamente all'hardware e alla sua implementazione.

Qui la notizia con video dimostrativi:

http://www.macitynet.it/utenti-macbook-pro-15-segnalano-un-problema-alla-scheda-video/

LorenzAgassi
18-11-2016, 15:33
Mi dispiace ma tu non sai di cosa hai scritto... Non sai come funziona la gestione della memoria con questo OS e spari castronerie!! Tu ha scritto che solo OS X si prenderebbe 3/4 Gb di Ram e ciò è completamente falso e ti ho spiegato anche il perchè e come controllare!!

Stammi bene Paul!!
P.S. In OS X non è mai esistita la voce " memoria di sistema " come classificazione!!



Ma invece di girarci attorno a mio avviso faresti prima a dire (se non meglio pontificare a questo punto) che tutta la Ram oltre a 4GB su Osx sarebbero soldi buttati per tutto il mondo ....perchè tanto non servirebbe a niente a nessuno, stando a ciò che vorreste affermare voi.. altrimenti le vostre reply che senso o meglio quale fine avrebbero?
Misteri.

Simonex84
18-11-2016, 15:34
Ma invece di girarci attorno a mio avviso faresti prima a dire (se non meglio pontificare a questo punto) che tutta la Ram oltre a 4GB su Osx sarebbero soldi buttati per tutto il mondo ....perchè tanto non servirebbe a niente a nessuno, stando a ciò che vorreste affermare voi.. altrimenti le vostre reply che senso o meglio quale fine avrebbero?
Misteri.

dai adesso basta, ormai è tutto graffiato sto povero specchio :mc: :mc:

LorenzAgassi
18-11-2016, 15:39
dai adesso basta, ormai è tutto graffiato sto povero specchio :mc: :mc:


In effetti la configurazione odierna dei MBP è con solo 16GB di Ram e non 4
Provo a mandare email al supporto tecnico per chiedere come mai di tutto questo spreco quando potevano lasciarli con molta meno memoria e magari scalando solo di 150$.
Se mi rispondono faccio sapere...

AlexSwitch
18-11-2016, 15:40
Ma invece di girarci attorno a mio avviso faresti prima a dire (se non meglio pontificare a questo punto) che tutta la Ram oltre a 4GB su Osx sarebbero soldi buttati per tutto il mondo ....perchè tanto non servirebbe a niente a nessuno, stando a ciò che vorreste affermare voi.. altrimenti le vostre reply che senso o meglio quale fine avrebbero?
Misteri.

E abbozzala di trollare Paul!! Ti ho spiegato perchè hai scritto una castroneria... Se ti va bene è così, altrimenti lascia in pace gli altri che frequentano questo thread con le tue farneticazioni!! Non puoi sempre stare a fare flame e a polemizzare con ragioni ridicole.
Non ti piace Apple? Bene l'abbiamo capito!! Ora puoi anche lasciare la discussione se non hai argomenti validi e soprattutto corretti con cui intervenire!!

Schwarzk
18-11-2016, 15:41
Tornando in topic, pare che le GPU AMD sui MacBook Pro 2016 stiano dando grossi problemi ai primi utenti che lo hanno iniziato ad usare con applicazioni professionali ( FinalCut X e Media Encoder di Adobe ). In sostanza le immagini sullo schermo vengono corrotte e il Mac si blocca... Apple parla di problemi alla GPU senza però specificare e questi siano dovuti ai driver o direttamente all'hardware e alla sua implementazione.

Qui la notizia con video dimostrativi:

http://www.macitynet.it/utenti-macbook-pro-15-segnalano-un-problema-alla-scheda-video/



Azzo...:O
Sono sempre più convinto allora di aver fatto la scelta giusta prendendo il modello del 2015.
Faccio fare da cavia, e poi tra qualche anno quando tutto sarà ottimizzato e a posto, allora ci penso a questi nuovi modelli.

Simonex84
18-11-2016, 15:42
In effetti la configurazione odierna dei MBP è con solo 16GB di Ram e non 4
Provo a mandare email al supporto tecnico per chiedere come mai di tutto questo spreco quando potevano lasciarli con molta meno memoria e magari scalando solo di 150$.
Se mi rispondono faccio sapere...

a listino ci sono ancora un MacMini con 4gb e tutti gli altri MacBook da 12" e 13" ne hanno 8gb, gira la ruota e pescane un'altra :asd:

LorenzAgassi
18-11-2016, 15:43
a listino ci sono ancora un MacMini con 4gb e tutti gli altri MacBook da 12" e 13" ne hanno 8gb, gira la ruota e pescane un'altra :asd:


MacBook con 8GB di Ram ..MacBookPro giustamente con 16GB di Ram
Si vede che allora anche per Apple la Ram serve.. ovvero il suo Osx 64bit con le relative app commerciali Pro 64bit non vanno "ad aria"
Solo per voi tutto quello che va oltre 4GB non servirebbe ..
Ho capito tutto.

Simonex84
18-11-2016, 15:46
MacBook con 8GB di Ram ..MacBookPro giustamente con 16GB di Ram
Si vede che allora anche per Apple la Ram serve.. ovvero il suo Osx non va ad aria
Solo per voi tutto quello che va oltre 4GB non servirebbe ..
Ho capito tutto.

http://www.apple.com/it/shop/buy-mac/macbook-pro

MacBook Pro 13"
Touch Bar e Touch ID
Processore 2,9GHz
Archiviazione 256GB
Processore Intel Core i5 dual-core a 2,9GHz
Turbo Boost fino a 3,3GHz
8GB di memoria a 2133MHz
Unità SSD PCIe da 256GB1
Intel Iris Graphics 550
Quattro porte Thunderbolt 3
Touch Bar e Touch ID

LorenzAgassi
18-11-2016, 15:49
http://www.apple.com/it/shop/buy-mac/macbook-pro
MacBook Pro 13"
Touch Bar e Touch ID
Processore 2,9GHz
Archiviazione 256GB
Processore Intel Core i5 dual-core a 2,9GHz
Turbo Boost fino a 3,3GHz
8GB di memoria a 2133MHz
Unità SSD PCIe da 256GB1
Intel Iris Graphics 550
Quattro porte Thunderbolt 3
Touch Bar e Touch ID



Cosa cambia? la cosa che non servirebbe a niente tutta la memoria che va oltre 4GB non è vera non a caso ne mettono 8 e 16 di GB
Ciao.

m4x!
18-11-2016, 16:04
Cosa cambia? la cosa che non servirebbe a niente tutta la memoria che va oltre 4GB non è vera non a caso ne mettono 8 e 16 di GB
Ciao.

Puttana eva che gente che gira in sto forum. Erano anni che non seguivo/postavo attivamente. Almeno qua, una volta non c'erano persone che parlano a caso. Devi proprio avere una brutta vita se la passi su forum a sputtanare grosse aziende, come se importasse a qualcuno della tua opinione. Qua si cercava di discutere sul fatto se la scelta di usare AMD o meno fosse giusta, tu invece stai parlando di ram da 2 giorni.
Volevo avere un confronto sulla questione 4k/5k con persone competenti che usano i pc/mac per lavoro, invece mi becco un bimbo troppo cresciuto che non riesce manco a seguire il suo filo del discorso, figurarsi instaurare qualcosa di costruttivo.

Tronando in-topic: qualcuno ha alba se si possa usare usb-c con un normalissimo DP1.2 "grosso" dall'altro lato?

Free Gordon
18-11-2016, 16:28
Tornando in topic, pare che le GPU AMD sui MacBook Pro 2016 stiano dando grossi problemi ai primi utenti che lo hanno iniziato ad usare con applicazioni professionali ( FinalCut X e Media Encoder di Adobe ). In sostanza le immagini sullo schermo vengono corrotte e il Mac si blocca... Apple parla di problemi alla GPU senza però specificare e questi siano dovuti ai driver o direttamente all'hardware e alla sua implementazione.
Qui la notizia con video dimostrativi:
http://www.macitynet.it/utenti-macbook-pro-15-segnalano-un-problema-alla-scheda-video/


E' tutta colpa di AMD!!! Maledetta Aemmeddìììì!!!! :mad: :mad: :mad:

Ermy STi
18-11-2016, 16:36
ma per chi utilizza i CUDA per il rendering come fa?

Schwarzk
18-11-2016, 17:02
ma per chi utilizza i CUDA per il rendering come fa?

Il mercato è bello perché vario.
Si compra un Dell, oppure un Lenovo. Entrambe ottime macchine!
Poi vabbè, se il problema è windows 10, fa il donwgrade a 7.
Se preferisce lavorare con OSX, piazza una scheda video su Thunderbolt.

MiKeLezZ
18-11-2016, 18:45
In effetti la configurazione odierna dei MBP è con solo 16GB di Ram e non 4
Provo a mandare email al supporto tecnico per chiedere come mai di tutto questo spreco quando potevano lasciarli con molta meno memoria e magari scalando solo di 150$.
Se mi rispondono faccio sapere...Perché scendendo di nanometria aumenta anche la densità e quindi dove prima c'erano 4GB ora ce ne stanno 8

Considerando che la litografia SRAM non è che un copia incolla, per chi fabbrica le memorie è un upgrade a costo zero, tanto che i tagli inferiori, a meno non siano necessari come pezzi di ricambio, li mandano in EoL (end of life)

Il taglio di prezzo per i tagli più piccoli non avviene perché le nuove memorie più capienti sono anche meno costose da produrre e più parsimoniose come consumi

GTKM
19-11-2016, 06:32
Io ho la sensazione che ci sia qualcuno che non abbia idea di cosa stia parlando. Un sistema operativo moderno cerca di tenere più cose possibili in RAM, per ovvi motivi prestazionali, quindi ne alloca tanta, ma non vuol dire che quella memoria sparisca. Semplicemente, sa come fare spazio per altre applicazioni quando necessario.

E comunque, alle persone comuni non importa la RAM allocata, purché il sistema giri bene e permetta di svolgere le normali operazioni. Il resto sono pippe da forum (inutili, tra l'altro).

Schwarzk
19-11-2016, 06:55
Io ho la sensazione che ci sia qualcuno che non abbia idea di cosa stia parlando. Un sistema operativo moderno cerca di tenere più cose possibili in RAM, per ovvi motivi prestazionali, quindi ne alloca tanta, ma non vuol dire che quella memoria sparisca. Semplicemente, sa come fare spazio per altre applicazioni quando necessario.

E comunque, alle persone comuni non importa la RAM allocata, purché il sistema giri bene e permetta di svolgere le normali operazioni. Il resto sono pippe da forum (inutili, tra l'altro).

:mano:

Nicodemo Timoteo Taddeo
19-11-2016, 07:10
. Un sistema operativo moderno cerca di tenere più cose possibili in RAM, per ovvi motivi prestazionali, quindi ne alloca tanta, ma non vuol dire che quella memoria sparisca. Semplicemente, sa come fare spazio per altre applicazioni quando necessario.



Troll mode on:

Ah... i bei tempi dei chilometrici thread sul superfetch di Windows Vista.

Per fortuna a quanto pare a volte ritornano :D


:sofico:

Phoenix Fire
19-11-2016, 14:40
Troll mode on:

Ah... i bei tempi dei chilometrici thread sul superfetch di Windows Vista.

Per fortuna a quanto pare a volte ritornano :D


:sofico:
quanti ricordi, specialmente post sp1 :D

!fazz
19-11-2016, 16:46
Apple ed il suo declino in ogni settore e le leggende metropolitane finalmente smentite da numeri
iPhone e iPad si impuntano molto più spesso dei dispositivi Android
http://www.appy-geek.com/Web/ArticleWeb.aspx?regionid=6&articleid=77809892&source=whatsapp
:mc: :sofico:
7g

lucusta
20-11-2016, 22:08
Non capisco il problema che ti stai ponendo, le FP16 sono obsolete ed insufficienti per calcoli di qualsiasi tipo (pure quelli grafici, in cui una volta venivano usate), sono usate solo nelle reti neurali di datacenter fuori dalla comprensione umana per massimizzarne le performance/watt e la grandezza del database.

Rimangono le FP32, pienamente usabili, e le FP64 con qualche compromesso (sono 1:32 esattamente come erano in Maxwell... ma rispetto a Maxwell le VGA Pascal vanno il 50% in più).

I software commerciali vanno di FP32 ed infatti nei benchmark di compute le 1070 spaccano il culo sia alla vecchia 980ti che alla ATI R9.
Tutto molto bello se non fosse che Pascal fa in FP64 1/32 mentre Polaris 1/24, quindi praticamente sono inusabili entrambi per questo tipo di calcolo.
l'FP16, che è (ri)nato ieri per uso particolare nel deep learning non ha alcun senso nel mercato consumer.
Quindi stai tirando in ballo cose che non c'entrano assolutamente nulla con le capacità di far girare SW professionale che è TUTTO basato su calcoli FP32.

Lo scontro è tra CUDA e OpenCL. Sappiamo che il secondo standard è stato lanciato proprio da Apple e che nvidia non è che lo consideri molto. Ne rimane giusto compatibile senza sforzarsi di accelerarlo fino in fondo.
AMD invece tenta di supportare OpenCL al meglio per avere una chance di avere qualche supporto di qualche SW professionale.

Non vi è alcun dubbio che a parità di prestazioni l'architettura nvidia consumi meno, talvolta persino sensibilmente meno. Quindi di tutte le giustificazioni scritte nell'articolo quella dei consumi è evidentemente falsa. Da che uno si chiede perché le altre sciocchezze dovrebbero essere vere. E prima di tutto perché mai Apple debba trovare giustificazioni per aver usato un componente invece che un altro.
Probabilmente hanno la coda di paglia e sanno che non è il prodotto migliore attualmente disponibile, ma costa meno e quindi si sono prodigati a dire il perché lo hanno scelto spendendo parole inutili con le solite mirabolanti fregnacce Apple che è in grado di incantare i suoi utenti ("non è il telefono ad avere problemi, siete voi che lo impugnate male!" oppure "il tuo pollice va da qui a qui" a che serve uno schermo più grande e scomodo?).
D'altronde uno che compra un MacPro come workstation è giusto che paghi quelle cifre per ricevere quella roba.



no.
1) 1:32 lo ha maxwell, pascal ha 1/256;
solo un cuda core a 16 ed uno a 64 bit (composto da 2 cuda 32 bit) per SM, unità che racchude 128 CUDA cores a 32b.
quindi i 16 bit li esegue ad un 128esimo rispetto ai 32 bit ed i 64 bit li esegue ad un 256esimo rispetto a 32 bit.
non puoi usare i cuda a 32 bit in emulazione, come su maxwell, semplicemente perche' ora il layer cuda chiede le proprietà dell'HW, e se sente che ci sono cuda core adibiti qualitivamente a 16 e 64 bit userà quelli (e guarda, sui nuovi driver non c'e' neanche piu' il supporto a CUDA; non ci sono piu' le dll).
e' solo HW da gioco, al massimo ci fai grafica (semplice, perche' quella buona e' fatta a 64 bit).. qualche rendering architettonico, nulla piu'.

2) i 16 bit sono per il deep learning, riconoscimento video, audio volumetrico, fisica base (molto usata nei giochi) e grafica (tutti i cellulari vanno in grafica 16 bit per gli stupidi ma proficui giochini).
praticamente l'AI di tutti quei programmi tanto in voga negli ultimi tempi.

3) i software commerciali di grafica a 32 bit... ci fai solo quello.

4) l'architettura Nvidia consuma meno con Maxwell, e solo sui giochi; Maxwell PRO non consuma certo poco, ne tantomeno GP100 con i GP10B (i veri cuda PRO);
state poi confrontando una scheda, la 480, con categorie differenti (1070 e 1080), quando con la 1060, a parità di prestazioni, non mi sembra che poi consumi cosi' poco, segno che anche li' mettono dentro con un po' piu' di margine operativo.
io guardo invece che una scheda da 1024 SP e 4GB di ram a 1450mhz consuma 35W, e che una da 2048 a 8GB non ne consumerebbe piu' del doppio, ossia 70 (e parliamo di meno clock...consideriamo ancora a 1450mhz di Polaris 11 XT!), quindi una scheda, e ripeto: INTERA SCHEDA e non solo chip, che ha il 12.5% in piu' di SP arriverebbe a 80W... vogliamo essere pessimisti? le schede su MXM presentate per embedded fanno 95W ed hanno stesse prestazioni e chip delle RX 480, la WR 7100 formato desktop, stesse prestazioni, stessi chip, fà 130W...

5) continuate a farvi infinocchiare da un'azienda che spreme come limoni i suoi clienti in tutte le forme dovute.

lucusta
20-11-2016, 22:14
Ma infatti è così, test del genere li trovi ovunque con una googlata, è risaputo che CUDA vada meglio, anche perché NVIDIA spesso utilizza le sue risorse interne per aiutare gli sviluppatori per sfruttarlo al meglio

https://forums.adobe.com/servlet/JiveServlet/showImage/2-7734377-787024/Adobe+OpenCL+Performance+Shock.png

scusa, tu confronti CUDA con OpenCL sullo stesso sistema e stesso HW?
ti rendi conto che se una nvidia processa da schifo DX12 probabilmente processa anche peggio OpenCL?
che forse GNC è nata proprio per essere sfruttata in questo ambito?
per processare adeguatamente HSA ci vuole una clusterizzazione ridotta, ed AMD ha puntato su questo sin da subito.
non puoi assolutamente fare un confronto del genere su HW Nvidia (anche perche' processeresti OpenCL con la CPU e non con la GPU, ecco perche' và peggio).
poi con una GT650...

se non sapete cos'e' OpenCL https://www.khronos.org/

lucusta
21-11-2016, 09:27
MiKeLezZ, CrapaDiLegno, spiego meglio perche' Pascal gaming non è abilitato all'uso di CUDA in computo 16 e 64 bit.
probabilmente voi vi riferite a questa slide:
http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/2
bene, non e' prettamente cosi'.

ho amici che stavano cercando di usare queste schede in ambito scientifico, cercando di riadattare i vecchi codici cuda alle nuove schede; si sono scontrati con la realtà dei fatti.

come ho scritto Nvidia usa gruppi da 128 CUDA cores per le sue soluzioni, ma questi oggi sono decisamente diversificati per l'uso a cui sono commercialmenti destinati; vengono definiti GP10A per le pascal gaming e GP10B per le PRO.
un GP10A e' un core con 2 ALU a 32 bit, piu' o meno come il vecchio maxwell, a cui hanno interposto uno stadio di registro a metà della pipeline di calcolo.
un GP10B è molto simile; di base e' 32 bit, ha sempre 2 ALU, ma queste possono essere usate insieme per formare una sola ALU a 64 bit; e' per questo che GP100 ha un rapporto FP32:FP64 di 2:1.
in GP10B le ALU 32 bit possono essere usate per 2 Words a 16 bit, quindi un cuda core GP10B puo' processare 4 words 16 bit con le sue ALU a 32 bit (cosa che avviene anche con le schede AMD); il rapporto FP16:FP32 di GP10B sembra essere 2:1.
quindi un cuda core GP10B puo' processare FP16:FP32:FP64 in rapporto 4:2:1.

in Maxwell c'era la possibilità di emulare il calcolo a 16 bit con cuda core a 32 bit ponendo restrizione di precisione (una word con 16 bit valenti e 16 bit posti a zero), quindi con rapporto 1:1 su FP16:FP32, mentre i 64 bit avevano bisogno di essere pocessati "a pezzi", introducendo molto overload e ottenendo un rapporto 1:32.

questa possibilità è stata negata a GP10A; il nuovo SKU cuda sembra che riconosca questi core, e per retrocompatibilità del codice ogni SM Pascal gaming annovera un solo cuda core GP10B su 128 cuda core a 32 bit.
un cuda core GP10B processa la metà dei calcoli di un cuda core a 32 bit, perche' utilizza entrame le ALU per lo stesso calcolo.
128 cuda core a 32 bit per 2 alu a testa fanno 256 ALU, contro una sola ALU 64 bit; da cui il rapporto 1:256.
quel CUDA core GP10B potrebbe processare 4 words a 16 bit, potendo ottenere un rapporto di 4 words a 16 bit contro 256 ALU a 32 bit, quindi 1:64, ma da verifiche con codice aggiornato sembra che sia possibile usare le 2 ALU solo in emulazione 16 bit, quindi un core 32 bit produce il calcolo per 2 words a 16 bit, e c'e' un solo core su 128 abilitato a questo, da cui il rapporto 1:128.

Nvidia ha letteralmente negato la possibilità di usare queste schede in ambito scientifico/pro, anche in emulazione 16/32 o 64/32, come le vecchie maxwell (cosa che alcuni conoscenti stanno cercando di aggirare, almeno per riottenere le vecchie prestazioni).

un CUDA core GP10A occupa la metà della superficie di un GP10B, ed è facile verificare la cosa.

in realtà Nvidia ha già Volta: e' basato su GP10B.
e' uno dei modi piu' semplici per poter usare adeguatamente le DX12 (quelle vere), ma... io test sui benchmark dei giochetti con GP100 non li ho mai visti, probabilmente perche' mancano driver adatti.
come ho scritto un GP10B e' il doppio di GP10A e presumibilmente, a pari frequenza, consuma il doppio...
GP100 è una scheda raffinata, molto selezionata;
annovera 30 SM rispetto ai 28 che propone, proprio per abilitare i migliori e rientrare in un consumo accettabile; ha una frequenza decisamente piu' moderata per rimanere nel miglior rapporto prestazioni per watt, e con 3840 cuda core GP10B, di cui solo 3584 abilitati, consuma, a 1480mhz, 300W, usando le "parche" HBM e non le assetate GDDR5X.
avere sul "commerciale" ACE e AC con la stessa scalabilità delle schede AMD, alle stesse frequenze di Pascal GP10A, comporterebbero consumi eccessivi; parliamo di 250-270W per ottenere le stesse prestazioni di oggi per una GTX 1080 in DX11, e sicuramente meglio di oggi se si avessero decenti giochi in DX12, ma solo su soluzioni alto di gamma ed usate in situazioni estreme (cioe' ottenere linearità prestazionale a 1080p con una Titan XP usando un esa o un octacore intel, quando invece oggi si ha un evidente calo prestazionale).

probailmente Nvidia ha deciso, per questo periodo, di semplificare parecchio il proprio design perche' in effetti non c'e' ne molto bisogno:
i giochi sono ancora in DX11 o usano blandamente le DX12;
ci sono quad core a 300 euro ad elevata frequenza e gli octacore sono fuori mercato o non ancora sul mercato;
e' una soluzione che oggi fà risparmiare transistors, superficie e si riesce a spingere in alto con facilità, ottenendo comunque prestazioni pure.

ma la fine di Pascal è già segnata...
dopo Kaby Lake non ci saranno piu' quad core a 4 e passa Ghz.
otterrai la stessa potenza da un octacore a 2.2Ghz, ad un costo nettamente inferiore, e visto che sul mercato arriveranno octacore a 3.2Ghz a 300 euro (da entrambe le parti e con prestazioni molto simili) e' facile predire che le DX12 verranno sfruttate molto di piu'.

credo che lo sforzo di Nvidia di oggi sia di rendere meno energivoro GP10B, in modo da far avvenire la transizione nel mondo consumer ed anche decidere se lasciargli i fatidici 16 bit a 2X (o anche 1X), che saranno molto usati anche sui giochi per spazialità audio e fisica (olte che su diverse tecnologie per la VR)....
eliminare nuovamente il supporto a 16 bit sarebbe un torto per i propri clienti.

e, ricapitolando, è per questo che non c'e' nvidia nei nuovi Apple.

MiKeLezZ
21-11-2016, 10:53
no.
1) 1:32 lo ha maxwell, pascal ha 1/256;
solo un cuda core a 16 ed uno a 64 bit (composto da 2 cuda 32 bit) per SM, unità che racchude 128 CUDA cores a 32b.
quindi i 16 bit li esegue ad un 128esimo rispetto ai 32 bit ed i 64 bit li esegue ad un 256esimo rispetto a 32 bit.
non puoi usare i cuda a 32 bit in emulazione, come su maxwell, semplicemente perche' ora il layer cuda chiede le proprietà dell'HW, e se sente che ci sono cuda core adibiti qualitivamente a 16 e 64 bit userà quelli (e guarda, sui nuovi driver non c'e' neanche piu' il supporto a CUDA; non ci sono piu' le dll).
e' solo HW da gioco, al massimo ci fai grafica (semplice, perche' quella buona e' fatta a 64 bit).. qualche rendering architettonico, nulla piu'.

2) i 16 bit sono per il deep learning, riconoscimento video, audio volumetrico, fisica base (molto usata nei giochi) e grafica (tutti i cellulari vanno in grafica 16 bit per gli stupidi ma proficui giochini).
praticamente l'AI di tutti quei programmi tanto in voga negli ultimi tempi.

3) i software commerciali di grafica a 32 bit... ci fai solo quello.

4) l'architettura Nvidia consuma meno con Maxwell, e solo sui giochi; Maxwell PRO non consuma certo poco, ne tantomeno GP100 con i GP10B (i veri cuda PRO);
state poi confrontando una scheda, la 480, con categorie differenti (1070 e 1080), quando con la 1060, a parità di prestazioni, non mi sembra che poi consumi cosi' poco, segno che anche li' mettono dentro con un po' piu' di margine operativo.
io guardo invece che una scheda da 1024 SP e 4GB di ram a 1450mhz consuma 35W, e che una da 2048 a 8GB non ne consumerebbe piu' del doppio, ossia 70 (e parliamo di meno clock...consideriamo ancora a 1450mhz di Polaris 11 XT!), quindi una scheda, e ripeto: INTERA SCHEDA e non solo chip, che ha il 12.5% in piu' di SP arriverebbe a 80W... vogliamo essere pessimisti? le schede su MXM presentate per embedded fanno 95W ed hanno stesse prestazioni e chip delle RX 480, la WR 7100 formato desktop, stesse prestazioni, stessi chip, fà 130W...

5) continuate a farvi infinocchiare da un'azienda che spreme come limoni i suoi clienti in tutte le forme dovute.A me non quadra

1) Veramente le informazioni le ho prese da qua:
http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5

Dove viene detto in maniera molto semplice che la capacità di calcolo è 1:32 per FP64 e 1:64 per FP16.
Il 1:64 di FP16 è da prendere con le pinze perché aggrega due registri e quindi è limitato, ma di certo non equivale a un 1:128 (se volessimo fare una media direi un 1:96).

C'è anche una simpatica tabellona di Sisoft Sandra dove si evincono 2 cose fondamentali:

a) Su 1080 il calcolo FP64 va 2,5 quello FP16 (se fosse stato 2 volte preciso allora avremmo avuto rispettivamente 1:32 e 1:64, invece così è corretto 1:32 e 1:96 di cui sopra)

b) La 1080 (Pascal) apre letteralmente il culo alla 980 (Maxwell) nel calcolo FP64, abbiamo prestazioni doppie... esattamente come in FP32 (quindi spacca tantissimo sia in FP32 che in FP64 e viene confermata la stessa 1:32 di Maxwell)

http://images.anandtech.com/doci/10325/SandaThroughput_575px.png

2) I 16 bit non servono a nulla in una VGA desktop, per quello li hanno praticamente tolti. Ma neppure nel mobile come tu dici (si usano solo per calcoli di colore, già per quelli di posizione sono insufficienti.. e presto anche lì si passerà ai FP32 per tutto).
Contemporaneamente escono VGA professionali serie P tiratissime sui FP16 per chi ne ha veramente bisogno (cluster server per reti neurali). Quindi sì, è una cosa commerciale, ma a noi utenti non cambia nulla.

3) E che ci devi fare? In ambito consumer la VGA lavora tutto in FP32. FP64 si usa proprio quando super necessario, visto che comunque, anche ammettendo il rapporto più favorevole di 1:2, lavorerebbe a metà della velocità.

4) Non capisco i conti che fai, Pascal è più efficiente di Maxwell, tant'è che ottiene performance simili con meno SP e meno bandwidth (tutto merito delle frequenze operative più alte del 50% e delle ottimizzazioni interne)

Il risultato è che come performance/watt Pascal annichilisce qualsiasi altra scheda finora uscita, con distacchi anche ragguardevoli
https://www.techpowerup.com/reviews/Gigabyte/GTX_1060_Xtreme_Gaming/27.html

Ovviamente le 1080 lavorano leggermente meglio delle 1060 a causa dei consumi fissi (es. sistema di ventilazione, conversione dell'energia da 12V a 3,3V e a 1,2V, consumo dell'ipervisore interno del chip, etc), ma niente di trascendentale...
Una 1060 da comunque la biada alla 970 anche nel compute (sia FP32 che FP64), consumando ben 50W in meno:
http://www.anandtech.com/show/10540/the-geforce-gtx-1060-founders-edition-asus-strix-review/14

5) 240€ per fare 90 FPS in DX12 a Battlefield 1 e consumare 50W in meno rispetto a simile Radeon (che in realtà va sotto) non mi sembra così un'inculata dai.

https://i.imgur.com/nH4f4uO.png

Non capisco perché NVIDIA ti faccia così arrabbiare

lucusta
21-11-2016, 13:05
Pascal GTX 1080 indicano 12.57 Gpix/s.
a 16 bit indicano 102.26 Mpix/s
12570/102.26 corrispondono a 1:123

a 64 bit indicano 248.22 Mpix/s
12570/248.22 corrispondono a 1:50

come vedi c'e' un po' di confusione...

e' purtoppo la fà Sisoft Sandra che, in quel test, produce una benchmark multimediale (il test si chiama espressamente: Processor Multi-Media Benchmark), e mentre le CPU lo fanno con l'ASIC SSE(2 o 4 che sia), le schede grafiche lo fanno o con gli shared dedicati, come in maxwell, o con il propiro ASIC dedicato, come in Pascal... e quelle sono le prestazioni del decodificatore HW della scheda.

per vedere quanto fà una scheda in GPGPU devi andare a spulciare i dati in half, single e double precision in ambito finanziario o scientifico.


il resto delle considerazioni che hai fatto sono ampiamente discusse sopra.
te l'ho scritto: c'e' gente che le ha prese per giocare e lavorare, ma... si e' trovata solo una scheda da gioco (e la sfortuna vuole che erano state prese principalmente per lavorare, senno' una semplice 1060 andava anche piu' che bene)....
è gente molto delusa...

2) i 16 bit sono e vengono molto sfruttati nei giochi: audio spazializzato, fisica.. tutta roba a 16 bit, ma l'accellerazione HW a 16 bit, in un prossimo futuro, puo' consentire al PC il riconoscimento facciale, la comprensione del parlato... tutta roba "deep learning" che non e' assolutamente confinata negli HPC.

3) 32 bit limitano fortemente le mappe costruite , sui giochi... a 64 bit sarebbero 4 volte piu' grandi.

4) ci mancherebbe che sia piu' efficiente di maxwell, essendo a 16nm finfet contro 28nm planari, ma in effetti l'architettura e' piu' lenta del 3% a pari frequenza, proprio per introdurre un accenno di ACE e AC.
Volta dovrà invece fare i conti con il pieno supporto a tale tecnologia, e se usano GP10B come cuda core... li' il consumo e' decisamente alto (ma non in relazione al calcolo in 16 bit e 64 bit).

5) non mi fà arrabbiare nvidia (non piu' di tanto, visto che e' un'azienda commerciale e tenta di fare piu' soldi possibili comprendo piu' magagne possibili), ma gente che erroneamente mette in piazza cose che non sono reali.
GNC e' un'ottima architettura, ma ha sempre scontato il fatto di dover essere un'architettura PRO adattata ai giochi, quando nvidia ha diviso già ta tempo le sue diverse tipologie.
cio' non toglie che nvidia limita fortemente la tecnologia, a suon di dollari, imponendo i suoi standard operativi e classificando le schede e consequenzialmente i giocatori.
ad oggi non dico che AMD sia la scelta migliore, ma sicuramente meno limitante, sopratutto per il futuro.

se Nvidia avesse sbandierato l'inusabilità di FP16 e FP64 non avrebbe venduto almeno 10 schede ai miei conoscenti, ma ai piu' non avrebbe scalfito nulla... ma tant'è, anche chi compro' la 970 si trovo' feature limited con 3.5GB di ram (ed espressamente imposto per evitare che quella scheda andasse a lambire le prestazioni della 980)...

percio' no, non me la prendo certo con nvidia, che fa' per se, ma con chi si dedica con tanto fervore nel millantare il nulla:
Apple ha messo una AMD dentro i mac pro perche' semplicemente era una scelta obbligata.
e' un prodotto PRO, non un gaming; almeno le sembianze di esserlo diamogliele.

MiKeLezZ
21-11-2016, 13:40
Pascal GTX 1080 indicano 12.57 Gpix/s.
a 16 bit indicano 102.26 Mpix/s
12570/102.26 corrispondono a 1:123

a 64 bit indicano 248.22 Mpix/s
12570/248.22 corrispondono a 1:50

come vedi c'e' un po' di confusione...Ehm... se fai i conti con la 980 abbiamo 6740/131 ovvero 1:51

Stesso rapporto della 1080 (anzi leggermente peggio)

Considerando che sono valori pratici e non teorici direi che le specifiche del 1:32 non mentono (o comunque architetturalmente parlando nulla è cambiato da Maxwell a Pascal sui FP64)

Riguardo i 16-bit se si considera lo scarto nella pratica di 1:32 -> 1:50 (pari al 56%), dal 1:123 torniamo a 1:80. Che è appunto un 1:64 leggermente peggiorato per via del vec2 packing sul FP16

lucusta
21-11-2016, 17:44
http://support.sisoftware.co.uk/knowledgebase.php?article=2

puoi metterla e girarla come ti pare;
le prestazioni FP16 ed FP64 delle Pascal commerciali sono ridicole, e oggi, in piu', non possono andare in emulazione half o double; sono confinate all'uso che ti consente nvidia.
il fatto poi di avere un layer software(PBX) che consente l'uso della CPU in supporto, non ti fà comprendere effettivamente la potenza reale che mette in gioco la GPU in GPGPU, ma, come vedi, rimangono pessime prestazioni.

sai perche', in ambito scientifico, si usano molto gli int8 e l'FP16?
quando non e' necessaria grande precisione (che ti consente una proiezione dei dati molto "profonda"), ma hai un enorme set d'istruzioni, fa' comodo quadruplicare (int8) o raddoppiare (FP16) la memoria disponibile.
passi da 8 miliardi d'istruzioni (8GB a 32 bit), a 16 miliardi (16 GB a 16 bit), fino a 32 miliardi se usi INT8.
puoi muovere in 3D 5 miliadi di oggetti con buona approssimazione per almeno 8 step temporali.
se devo studiare l'evolversi di un sistema (tipo il meteo), preferisco dividere in piu' step di calcolo, ma riuscicre a farlo, piuttosto che proiettare a diversi step perche' ho usato una precisione maggiore, ma dover decurtare alla metà le variabili in gioco, perche' non si ha sufficiente memoria.

MiKeLezZ
21-11-2016, 19:18
http://support.sisoftware.co.uk/knowledgebase.php?article=2

puoi metterla e girarla come ti pare;
le prestazioni FP16 ed FP64 delle Pascal commerciali sono ridicole, e oggi, in piu', non possono andare in emulazione half o double; sono confinate all'uso che ti consente nvidia.
il fatto poi di avere un layer software(PBX) che consente l'uso della CPU in supporto, non ti fà comprendere effettivamente la potenza reale che mette in gioco la GPU in GPGPU, ma, come vedi, rimangono pessime prestazioni.Ok, ma i punti di interesse rimangono questi:

a) Pascal ha perfomance FP32 e FP64 raddoppiate e consumi ridotti rispetto a Maxwell

b) Sia Pascal che Maxwell hanno lo stesso rapporto 1:32 in FP64

c) La stessa AMD non ha un rapporto FP64:FP32 di 1:2, ma di 1:16

d) Neppure Maxwell supportava le FP16, ma le emulava in registri a 32-bit (e quindi tanto vale usare le FP32)

e) In ambito consumer non viene utilizzato né FP16 né FP64, sono utili solo in ambiti di ricerca scientifici o per benchare folding@home

f) Ambiti di ricerca scientifica 3D sono coperti dalla variante professionale P100 da 4,7 TFLOPs in FP64 (che è 9 volte più potente della R9 Fury X)

e) Ambiti di ricerca scientifica su reti neurali sono coperti dalla variante professionale P40 da 47 TOPs in INT8 (...neppure FP16)

sai perche', in ambito scientifico, si usano molto gli int8 e l'FP16?
quando non e' necessaria grande precisione (che ti consente una proiezione dei dati molto "profonda"), ma hai un enorme set d'istruzioni, fa' comodo quadruplicare (int8) o raddoppiare (FP16) la memoria disponibile.
passi da 8 miliardi d'istruzioni (8GB a 32 bit), a 16 miliardi (16 GB a 16 bit), fino a 32 miliardi se usi INT8.
puoi muovere in 3D 5 miliadi di oggetti con buona approssimazione per almeno 8 step temporali.
se devo studiare l'evolversi di un sistema (tipo il meteo), preferisco dividere in piu' step di calcolo, ma riuscicre a farlo, piuttosto che proiettare a diversi step perche' ho usato una precisione maggiore, ma dover decurtare alla metà le variabili in gioco, perche' non si ha sufficiente memoria.Purtroppo l'esempio non calza affatto, proprio sui sistemi meteo si privilegia sempre la maggior precisione disponibile in quanto piccoli errori di calcolo possono creare propagazione di errori in cascata e dare un esito diverso... per sopperire alla richiesta computazionale si usano quindi cluster di più schede.
In generale per tutto il posizionamento tridimensionale si usa almeno FP32 in quanto con FP16 si rischiano errori di posizione, FP16 è un retaggio del passato ed è per questo che non è più presente (neppure in Windows 10 64-bit è possibile usare programmi 16-bit, non vedo perché farne un dramma per la GPU).
Peraltro è di non molto fa la notizia che l'ente americano per le previsioni del tempo ha chiesto un cluster da qualche centinaio di Pascal per rinnovare il proprio supercomputer...

lucusta
22-11-2016, 09:52
Ok, ma i punti di interesse rimangono questi:

a) Pascal ha perfomance FP32 e FP64 raddoppiate e consumi ridotti rispetto a Maxwell
è a 14nm e viaggia al doppio della frequenza; no, in FP64 Pascal perde miseramente il confronto; maxwell ha abilitati 4 CUDA cores a 64bit e comunque puoi usare gli altri in emulazione (bypassando le costrizioni degli ultimi SKU cuda).

b) Sia Pascal che Maxwell hanno lo stesso rapporto 1:32 in FP64
ti rifai sempre e comunque ad un test che produce immagini frattali e ne conta il numero; quel test si esegue per verificare le capacità multimediali di CPU o adattatori grafici, e consiste nella generazione di immagini frattali tramite inversa triclina, in cui sono specializzate le SSE2 e le SSSE4.1 dei processori intel, gli shader abilitati tramite cuda di Maxwell e l'ASIC multimediale di Pascal... non è una misura per determinare le capacità computazionali generaliste di un processore.

c) La stessa AMD non ha un rapporto FP64:FP32 di 1:2, ma di 1:16
vero; AMD ha molto ridotto il supporto alle istruzione a 64 bit.

d) Neppure Maxwell supportava le FP16, ma le emulava in registri a 32-bit (e quindi tanto vale usare le FP32)
infatti era quasi inutile usarli in quel modo.

e) In ambito consumer non viene utilizzato né FP16 né FP64, sono utili solo in ambiti di ricerca scientifici o per benchare folding@home
Polaris ha eliminato l'ASIC Truesound spostandolo su shared, e stessa cosa fà con la fisica (semplice); la particolarità di Polaris in DX11 e' quella di proporre 32CU per la grafica e le rimanenti 4CU per spazializzazione audio e fisica, che in 16 bit hanno una valenza doppia; e' come avere 8CU dedicate a questo... 8CU è il numero integrato nelle migliori APU desktop (per ora).
Pascal invece ha spostato il computo da shared ad un ASIC dedicato, almeno per il suono, ed è il medesimo che si occupa della multimedialità.

f) Ambiti di ricerca scientifica 3D sono coperti dalla variante professionale P100 da 4,7 TFLOPs in FP64 (che è 9 volte più potente della R9 Fury X)
...e 15 volte piu' costosa.
ma stai paragonando una soluzione degnamente PRO con una consumer, e datata.

e) Ambiti di ricerca scientifica su reti neurali sono coperti dalla variante professionale P40 da 47 TOPs in INT8 (...neppure FP16)
...e domandati quanti TOPs puo' fare una Fury X.
una fury X, in training per il riconoscimento immagini, con una beta di Caffè OpenCL, produce 261 immagini/s (una 290X 268, molto limitata dalla banda memoria); una Tesla K40 ne produce 193 al secondo.
in riconoscimento legge 699 immagini al secondo, la K40 500/s.
ancora non ci sono test su GP100, e presumibilmente raddoppierà quasi il valore di K40 (soprattutto grazie alla banda memoria), ma credo ce abbia ben poche speranze di superare una Fury PRO (anche questa raddoppia le prestazioni di fury X).
da una parte un HW dal costo 5 volte superiore, dall'altra un confronto tra HW con una differenza di prezzo di 3 volte.
ed è ancora vecchia tecnologia, per AMD, in quanto Vega "a da venire".
(che se poi fanno il famigerato Vega oltre 6000SP viene l'acquolina in bocca)...

a che serve?
MS buongiorno funziona con la stessa tecnologia...
queste saranno tecnologie impiegate per rendere piu' ergonomico l'uso dei sistemi: riconoscimenti facciali, gesturali, del parlato quotidiano....
a libera immaginazione dell'implementazione.

Purtroppo l'esempio non calza affatto, proprio sui sistemi meteo si privilegia sempre la maggior precisione disponibile in quanto piccoli errori di calcolo possono creare propagazione di errori in cascata e dare un esito diverso... per sopperire alla richiesta computazionale si usano quindi cluster di più schede.
In generale per tutto il posizionamento tridimensionale si usa almeno FP32 in quanto con FP16 si rischiano errori di posizione, FP16 è un retaggio del passato ed è per questo che non è più presente (neppure in Windows 10 64-bit è possibile usare programmi 16-bit, non vedo perché farne un dramma per la GPU).
Peraltro è di non molto fa la notizia che l'ente americano per le previsioni del tempo ha chiesto un cluster da qualche centinaio di Pascal per rinnovare il proprio supercomputer...

10 anni fà?
parli di 10 anni fà...
ad oggi nessuno calcola con proiezioni profonde su multivariabili.
matrici per integrali ellittici consumano troppe risorse e sono poco predittivi, soprattutto in FP64... si usano FP512 e/o superiori, ma solo per alcuni ambiti, non certo il meteo, che e' ben piu' realistico calcolarlo a bassa precisione per infinitesimi di tempo inferiori.
aspettano i PC quantici per questo (e quanti qubit credi abbia un PC quantistico?).

tu mischi un sacco di cose che non hanno senso di essere nemmeno confuse.

Pascal e' per ambito puramente videoludico, e solo con le dipendenze delle tecnologie attuali; cambiano i presupposti di programmazione (e cambieranno, perche' stà già cambiando l'HW), Pascal fà la fine del cerino...

non ti dico che e' una politica sbagliata, per Nvidia (visto il suo trimestre, che con un aumento di vendite del 35% ha ottenuto un aumento di fatturato di oltre il 50%), e non ti dico nemmeno che e' sbagliato comprare oggi una nvidia gaming, ma certo non confondere l'uso professionale di tali accelleratori con il gaming, e non venirti a lamentare che l'anno prossimo dovrai comprare una nuova scheda, perche' la tecnologia è avanzata e quella dell'anno precedente non rende piu'.

invece di perdere tempo con queste sciocchezze, impara un framework degno di essere implementato:
http://www.iwocl.org/wp-content/uploads/iwocl-2016-opencl-caffe.pdf

MiKeLezZ
22-11-2016, 13:25
è a 14nm e viaggia al doppio della frequenza; no, in FP64 Pascal perde miseramente il confronto; maxwell ha abilitati 4 CUDA cores a 64bit e comunque puoi usare gli altri in emulazione (bypassando le costrizioni degli ultimi SKU cuda).

ti rifai sempre e comunque ad un test che produce immagini frattali e ne conta il numero; quel test si esegue per verificare le capacità multimediali di CPU o adattatori grafici, e consiste nella generazione di immagini frattali tramite inversa triclina, in cui sono specializzate le SSE2 e le SSSE4.1 dei processori intel, gli shader abilitati tramite cuda di Maxwell e l'ASIC multimediale di Pascal... non è una misura per determinare le capacità computazionali generaliste di un processore.Ok ma in soldoni nel bench prima montano una 1080 e poi una 980 sullo stesso sistema... ed ottengono lo stesso rapporto FP32:FP64 (non importa se aiutato dalle SSE, dallo spirito di Steve Jobs o altro, visto tali variabili sono presenti in entrambi i sistemi)... ciò significa che da Maxwell a Pascal non vi è stato alcun peggioramento sugli FP64.

Poi se te mi dici che con Maxwell emulavi le FP64 con 2 registri 32-bit e ora hanno tolto la possibilità, ok, hai ragione, è stata una mossa scorretta e dettata solo dal marketing, ma parliamo veramente di questioni di lana caprina.

Ok, se voglio i FP64 e non ho i soldi per una Tesla mi comprerò una R9, e ti do ragione, ma qua nessuno compra le VGA per il computing FP64 perché noi siamo in ambito consumer e utilizziamo solo e soltanto i FP32... Le FP64 vengono utilizzate solo nel folding@home (versione 64) che è l'apoteosi dell'inutilità (almeno per il consumer).

Infatti sia AMD che NVIDIA hanno praticamente ammazzato le FP64 perché si sono accorti che questo gli faceva risparmiare spazio sul die, energia e via dicendo. Senza che al consumer cambiasse alcunché.

...e domandati quanti TOPs puo' fare una Fury X.
una fury X, in training per il riconoscimento immagini, con una beta di Caffè OpenCL, produce 261 immagini/s (una 290X 268, molto limitata dalla banda memoria); una Tesla K40 ne produce 193 al secondo.
in riconoscimento legge 699 immagini al secondo, la K40 500/s.
ancora non ci sono test su GP100, e presumibilmente raddoppierà quasi il valore di K40 (soprattutto grazie alla banda memoria), ma credo ce abbia ben poche speranze di superare una Fury PRO (anche questa raddoppia le prestazioni di fury X).
da una parte un HW dal costo 5 volte superiore, dall'altra un confronto tra HW con una differenza di prezzo di 3 volte.
ed è ancora vecchia tecnologia, per AMD, in quanto Vega "a da venire".
(che se poi fanno il famigerato Vega oltre 6000SP viene l'acquolina in bocca)...Bhe il P100 è 2,7 volte il K40 quindi una Fury X è sempre sotto. La Fury Pro sarà anche il doppio della X, ma sono 2 chip quindi non ha molto senso come paragone... e rimane sotto un P100.

Ovvio che se sono uno studente/ricercatore universitario che sto lavorando su progetti INT8, FP16 o FP64, con AMD mi troverò meglio lato finanze (e non mi frega che consumi di più, tanto la corrente me la paga l'ateneo). Questo è indubbio. Ma qua su hwupgrade lamentarsi di uno scarso supporto FP16 non ha alcun senso (non viene usato).

Cioè anche se per follia qualcuno volesse ideare un qualche programma per cui bastino gli FP16... non avrebbe senso farlo perché c'è così tanta potenza computazionale FP32 da far girare qualsiasi programma consumer venisse in mente, pure 3 o 4 assieme (infatti volendo posso far girare 2 o 3 giochi in contemporanea senza problemi). Che poi è il motivo per cui non esistono più programmi per PC a 16-bit. Molti dei programmi odierni sono così stupidi che i 16-bit gli avanzerebbero pure, ma le CPU odierne hanno talmente tanta potenza che possono far girare tutto a minimo 32-bit.

AMD gioca sulla polifunzionalità della sue schede proprio perché manca di competitività nei giochi e cerca di raccattare utenze un po' qua e un po' la, oltre che ad avere interessi trasversali per lo sfruttamento delle CU delle sue APU.

Pascal e' per ambito puramente videoludico, e solo con le dipendenze delle tecnologie attuali; cambiano i presupposti di programmazione (e cambieranno, perche' stà già cambiando l'HW), Pascal fà la fine del cerino...

non ti dico che e' una politica sbagliata, per Nvidia (visto il suo trimestre, che con un aumento di vendite del 35% ha ottenuto un aumento di fatturato di oltre il 50%), e non ti dico nemmeno che e' sbagliato comprare oggi una nvidia gaming, ma certo non confondere l'uso professionale di tali accelleratori con il gaming, e non venirti a lamentare che l'anno prossimo dovrai comprare una nuova scheda, perche' la tecnologia è avanzata e quella dell'anno precedente non rende piu'.Ok fra 10 anni ci saranno altre tecnologie, quindi? Magari lavoreremo in FP64. O misto FP32, FP64, FP128, chi può dirlo. Usciranno nuovi acceleratori computazionali e cambieremo i vecchi. Così come si fa ora con le CPU. Le M/B. E' normale. Pensi che una R9 sia più longeva di una 1080? Ma dove? La VGA più cessa di adesso, una 1050 da due spiccioli smonta di 3 volte le VGA top gamma di 8 anni fa (che il FP64 neppure sapevano cosa fosse... tipo una 9800GTX). Non ha mai avuto senso e non ha senso neppure ora fare calcoli su tecnologie del futuro con hardware del presente... e te lo dice qualcuno che, immagino come te, ha visto decine di generazioni di hardware. L'evoluzione tecnologica è una bestia selvaggia che in realtà è estremamente facile da domare... basta prendere la soluzione più diffusa. Una 1060 da 200$ mena una 780ti da 700$ di 3 anni fa. Chi ha speso 700$ per avere più "future proof" di altri ha solo preso una sonora inculata...
Le FP64 serviranno davvero solo quando tali soluzioni saranno la maggioranza circolante, e quando arriverà tale momento troveremo schede da due spiccioli che avranno potenze FP64 da rendere ridicole tutte le soluzioni di adesso.

invece di perdere tempo con queste sciocchezze, impara un framework degno di essere implementato:
http://www.iwocl.org/wp-content/uploads/iwocl-2016-opencl-caffe.pdfForse è più utile saper lavorare in OpenCL che CUDA, ma non è il mio ambito, sorry

lucusta
22-11-2016, 13:53
bhe', e' l'ambito di una soluzione PRO, ed è puramente per questa ragione che hai una GNC in un Mac e non un Pascal.
diversamente avresti ridotto di parecchio l'ambito di utilizzo.
e non sanno nemmeno fare marketing, alla apple...
sono giorni che l'ing. NASA pubblicizza l'uso di queste macchine, senza dire che il loro software e' solamente CPU powered...