PDA

View Full Version : Uno spinoff in vista per AMD? In teoria si, ma poco probabile in pratica


Redazione di Hardware Upg
22-06-2015, 07:31
Link alla notizia: http://www.hwupgrade.it/news/cpu/uno-spinoff-in-vista-per-amd-in-teoria-si-ma-poco-probabile-in-pratica_57758.html

Reuters rilancia una indiscrezione emersa in più occasioni nel passato: AMD starebbe preparando uno spinoff delle proprie attività, con una delle opzioni che vedrebbe un'azienda legata alle CPU e l'altra impegnata nel mondo delle GPU

Click sul link per visualizzare la notizia.

gd350turbo
22-06-2015, 07:55
Ma chi se la compera la divisione cpu di amd ?

gd350turbo
22-06-2015, 08:09
Ah bè se la compera samsung, è un altra cosa...
Anzi c'è da sperare che lo faccia !

macellatore
22-06-2015, 08:21
Ecco la roadmap DESKTOP

http://benchlife.info/wp-content/uploads/2015/06/amd-client-platform-roadmap-1024x724.jpg

8 core Zen fino a fine 2017,
core "semplici".

bobafetthotmail
22-06-2015, 08:22
Ma chi se la compera la divisione cpu di amd ?Nessuno. Questo è uno spinoff, non una vendita.

Sarebbe il primo passo del giochino "good company e bad company" che tanti, tra cui anche FIAT fanno. Dividi la multinazionale in 2, in una ci metti tutte le attività che vanno bene, nell'altra tutte quelle che vanno meno bene o proprio male (esempio FIAT ha tenuto la parte che fa auto nella "bad company").

Questo ti permette di abbandonare a sè stessa la bad company se necessario.

Quindi non è un buon segno.

Ci sarà da scompisciarsi quando gli antitrust citeranno ARM come competitor di Intel pur di non punirli per il loro monopolio (perchè ora non sono un monopolio, nono, sono al 99%, ma finchè non sono al 100% totale nessuno si azzardi mai)

Certo non riesce a sfornare cpu a livello di Intel ma non sottovalutiamo i prodotti AMD, sono un gradino sotto ma è un piccolo gradino anche se commercialmente sembra enorme.Gradino sotto un corno. la forte maggioranza dei PC desktop consumer sarebbero meglio con una APU invece che con un processore casuale entry-level Intel considerati i carichi.

Per i processori seri non è un gradino sotto, è proprio fuori dai giochi. Server è fuori, gaming anche.

E tutto perchè quei geni di MS non vogliono far sfigurare le console.

GabrySP
22-06-2015, 08:25
dividere la divisione "slide powerpoint" dal resto dell'azienda mi pare una scelta azzeccata

randorama
22-06-2015, 08:54
accorpa ati, scorpora ati, accorpa ati, scorpora ati

http://static.sky.it/static/contentimages/original/sezioni/tg24/spettacolo/2010/12/30/aiuti_alluvione_veneto_natalino_balasso_karate_kid_miaghi.jpg

Maury
22-06-2015, 09:02
La divisione grafica si merita altro, ha capacità progettuali avanzatissime ma capitali investiti ridicoli rispetto al competitor principale.

Spero in Samsung o chi per esso, così non si può andare avanti troppo.

CrapaDiLegno
22-06-2015, 09:18
chi comprerebbe a "poco prezzo" (vista la situazione finanziaria di AMD) una divisione comprendente licenze, brevetti e know how che a parte Intel e pochissimi altri, nessuno può avere? la foga del commento contro AMD fa fare figuracce
Anche la foga del commento fanboy AMD fa male.
Una volta acquistati i relativi brevetti etc... (inclusi i debiti, ovviamente) cosa te ne fai se non riesci a farci soldi?
Fare soldi significa investire un ulteriore botto di tempo e soldi (mica che i brevetti acquistati sfornano nuove architetture ogni anno da soli, sai) per produrre qualcosa che si scontra contro il gigante Intel.
Se domani ti regalassero tutte le licenze e i brevetti in mano ad AMD, quanti soldi, e per quanto tempo, pensi di doversi mettere prima di avere un prodotto valido che contrasti quello che sta facendo Intel oggi?
In quanto tempo credi di poterti ripagare dell'investimento?

Le aziende fanno questo tipo di ragionamenti, mica dicono: "Ah, APU che figata aspetta che ne comro il progetto e divento ricca". Oppure "figata la nuova Fury X, aspetta che acquisto l'azienda che l'ha prodotta e ne vendo mille milioni anche agli Eschimesi".

CrapaDiLegno
22-06-2015, 11:13
geniale alla Carcarlo Pravettoni, chi acquista AMD secondo te lo fa per mettersi un quadretto in stanza e vantarsi con gli amici e non perché ha soldi da investire in quantità. che bel mestiere l'avvocato del diavolo, il bello che ti sei pure dilungato nelle spiegazioni a tal punto da farmi pensare che tu non trolli ma ci credi davvero nelle panzane che spari, la tua prossima idea imprenditoriale cosa sarà il wurstel di pollo senza pollo?
No caro, non fare quello che rivolta la frittata.
Non sono io quello che ha fatto facile l'acquisto delle proprietà AMD per farci qualcosa di utile. Il "poco prezzo" come lo hai definito tu non è di alcun incentivo. Anche fossero regalati, non cambierebbe molto.
Tu hai idea del quantitativo di denaro necessario per creare una CPU complessa come le ultime x86? Hai idea dei tempi? E hai idea del rischio di incorrere sul fatto che quando sono pronte poi Intel di potrebbe asfaltare comunque visto la sua potenza di fuoco (e i probabili progetti messi in un cassetto in attesa di essere sfruttati degnamente quando necessario)? In un mercato in continua contrazione?
La domanda "Chi mai acquisterebbe la divisione CPU di AMD" ha senso eccome, e non è dovuta a nessun fanboyismo particolare.
Viceversa la tua "faciloneria" nel tentare di dimostrare che il valore della cosa sia assolutamente vantaggioso per il "poveraccio" che se ne prende carico, dimostra come un fanboy non sappia valutare alcun aspetto reale delle cose che non siano solo a favore della sua azienda preferita.

marchigiano
22-06-2015, 11:31
dividere la divisione "slide powerpoint" dal resto dell'azienda mi pare una scelta azzeccata

mi hai preceduto :sofico:

bobafetthotmail
22-06-2015, 12:06
Non ho capito la storia di MS che non vuol far sfigurare le console :mbe:Su windows le directx girano in single-core.
Sull'OS delle console ovviamente no.
Risultato, una console (xbone o ps4) con una APU scarsa fa girare meglio dei giochi rispetto ad un PC costato 3 volte tanto.

Le draw call di una console moderna sono circa 5 volte le draw call di un PC normale.
Ok che non si traduce in un aumento delle prestazioni di 5 volte ma almeno un raddoppio sì.

Dalle DX12 mettono le directx che possono girare su fino a 6 core (cappati a 6 core perchè odiano AMD coi suoi 8 core, chessò).

Ed ecco a voi... l'"ottimizzazione" delle console, altrimenti detta castrazione dei PC.
Il relativismo che puoi attuare quando controlli due postazioni e c'è conflitto di interessi. :rolleyes:

E così si spiega perchè giochi scritti coi piedi come Asscred riescano a girare meglio comunque su console che a livello hardware fanno pena.

E non possono venirmi a dire che era difficile, sulla xbone (ma anche sulla 360) ci gira una derivata di windows.


Ovviamente AMD è quella che c'è andata più di mezzo perchè i suoi procssori hanno IPC più scarso, e infatti appena MS ha deciso di sua "spontanea volontà" dopo che stava uscendo Mantle di fare le DX12 ci sono bench su bench sul come i processori AMD si riscattino (specialmente le APU) con le DX12.

chi comprerebbe a "poco prezzo" (vista la situazione finanziaria di AMD) una divisione comprendente licenze, brevetti e know how che a parte Intel e pochissimi altri, nessuno può avere? la foga del commento contro AMD fa fare figuracceIl punto è che nel mercato x86 Intel è al 100% nei server e oltre il 95% nei desktop e portatili.

Mi spieghi quale azienda di pazzi compra una azienda che sta fallendo (la fine di AMD se Zen non è competitivo) per entrare in un mercato saturo come quello del x86 per mettersi contro un monopolista che ha spadroneggiato da 3-4 anni (o di più se si vuole chiamare le cose con il loro nome).

Cioè giusto Microsoft potrebbe avere idee idiote del genere, per poi mettere le APU nei surface tablet e nei surface da muro e nei surface da polso pechè so che fanno un surface da polso un giorno.

Il grosso dei produttori stanno sugli ARM dove c'è ancora concorrenza e possibilità di acquisire quote di mercato. Quindi anche se la comprano usano la roba ARM che ha fatto AMD (quale? non so)

Entrare ora nel mercato x86 è un suicidio.

Italia 1
22-06-2015, 12:31
Spin off completamente negato da Amd

http://wccftech.com/update-amd-denies-rumors-potential-breakup-spinoff/

Sflao
22-06-2015, 12:35
Risultato, una console (xbone o ps4) con una APU scarsa fa girare meglio dei giochi rispetto ad un PC costato 3 volte tanto.
.

ma neanche per scherzo:

https://www.youtube.com/watch?v=9OE2iI7OLh8

mentre un pc che costa 3 volte tanto gli caga in testa ad una console

gd350turbo
22-06-2015, 12:56
chi comprerebbe a "poco prezzo" (vista la situazione finanziaria di AMD) una divisione comprendente licenze, brevetti e know how che a parte Intel e pochissimi altri, nessuno può avere?

Spero una ditta che sappia sfruttarli e che metta un pò del pepe al cubo ad intel, dato che ora come ora intel si sta annoiando e facendo concorrenza da sola, proponendo migliorie minime ad ogni cambio di chipset, dato che lassu in cima c'è lei e solo lei, può permettersi di fare quello che vuole, ovvero di non fare !

la foga del commento contro AMD fa fare figuracce
Bè anche a voler difendere l'indifendibile non è che si acquistino dei punti !

Vash_85
22-06-2015, 13:12
http://www.bitsandchips.it/50-enterprise-business/5727-pin-off-di-amd-fud-incontrollato-a-sunnyvale

calabar
22-06-2015, 13:41
@Bivvoz
Si sta riferendo a questo (http://www.rockpapershotgun.com/2014/03/20/directx-12-existing-graphics-cards/) (l'immagine è decisamente esplicativa, in alto DX11, in basso DX12).
Il vantaggio è tutt'altro che misero se sfruttato adeguatamente. Quello a cui ti riferisci tu è l'eliminazione del collo di bottiglia delle Draw Call (che ovviamente si fa sentire dove le Draw Call sono state usate con abbondanza e/o poca accortezza).

Stesso problema con OpenGL (qui il problema è che sono rimaste indietro per mancanza di obiettivi e risorse, accontentandosi di stare al livello delle Direct3D, prima che AMD sviluppasse Mantle), per questo AMD ha collaborato con il Khronos Group per la realizzazione di Vulkan (https://www.khronos.org/vulkan).

ionet
22-06-2015, 13:52
condivido per logica da bitschips:

Perché dividere in due un'azienda che è già ai minimi storici come dimensioni?
Perché abbandonare l'unico mercato (quello Semi-Custom) che attualmente produce utili?
Perché creare due aziende incapaci di sostenersi indipendentemente?
Perché queste voci sono state pubblicate proprio nel momento di maggiore hype attorno ai prodotti di AMD?
Quali sono le entità che maggiormente possono avvantaggiarsi di queste voci?

lo scorporo e' inconcepibile

per quanto amd sembra messa male,in realta' e' il suo potenziale che e' incredibilmente enorme

quanto vale il mercato x86 attualmente?(basta vedere quanto vale intel:eek: )
quanto vale il mercato gpu?(il valore di nvidia e oltre;) )

esce un mercato mostruoso da centinaia di miliardi di $,quasi totalmente monopolizzato

amd per le scarse finanze proprie,non riesce tanto a esprimersi,ma ben coadiuvata ha delle aspettative di crescita da 3 a 4 cifre,simile alla apple fine anni novanta pre-ipod(era praticamente fallita:read: )

bobafetthotmail
22-06-2015, 14:13
Scusa ma non sono molto convinto di quello che dici.
Cioè posso anche credere che le directX di MS limitino in qualche modo il mondo pc a favore di quello console, ma che siano limitate al single core mi pare eccessivo.Hai per caso vissuto in una grotta negli ultimi mesi?
http://www.littletinyfrogs.com/article/460524/DirectX11vsDirectX12_oversimplified
http://wccftech.com/dx12-revealed-compared-dx11/
http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/3
http://www.pcworld.com/article/2900814/tested-directx-12s-potential-performance-leap-is-insane.html
http://www.techpowerup.com/210960/amd-bets-on-directx-12-for-not-just-gpus-but-also-its-cpus.html
https://community.amd.com/community/gaming/blog/2015/05/12/amd-enables-incredible-directx-12-performance-in-new-3dmark-api-overhead-feature-test
http://www.rockpapershotgun.com/2015/03/05/quadcore-gaming/

Inoltre non mi pare che gli stessi giochi su linux con openGL diano risultati migliori.Cosa c'entra linux adesso? Da quando in qua un gioco gira meglio su Linux? :mbe:

Da quanto si è visto viene caricato meno o meglio il processore e questo permette di evitare il collo di bottiglia con cpu di fascia media, ma il tutto finisce li non si hanno vantaggi per più core o cose simili e per cpu di fascia alta (compresi quelli AMD) il vantaggio è veramente misero.Non si va oltre i 4 core perchè i giochi oltre i 4 non ne usano perchè non aveva senso usarne.

Il potenziale per andare oltre ora c'è.

CrapaDiLegno
22-06-2015, 14:14
lo storico dei commenti di certi elementi in aggiunta al tono dato da un "MA CHI comprerebbe" non lascia spazio ad interpretatazioni. stai continuando a parlare del nulla. se AMD vende ci sta la coda di aziende (peveracci lo stai dicendo tu) pronta a comprare e non perché è bella o capace ma per tutti i motivi che ho già detto. divertiti.

Tutta la profondità e validità del tuo commento starebbe nell'avere una serie di licenze e brevetti che nessun altro ha a parte (la patetica e poco convincente sul mercato) Intel?
Non mi sembra che siano motivi validi per chi non ha le fette rosse sugli occhi.
Per chi deve sborsare miliardi di dollari per comprare le licenze/brevetti e deve estrarne altrettanti in un periodo di qualche anno per avere un risultato e sperare che questo sia valido al momento del lancio in un mercato saturo e in via di contrazione con un solo dominatore con il 100% (e lo avrà se AMD fallisce con Zen), no, non sono motivi validi. Per nulla.

CrapaDiLegno
22-06-2015, 14:43
Hai per caso vissuto in una grotta negli ultimi mesi?
http://www.littletinyfrogs.com/article/460524/DirectX11vsDirectX12_oversimplified
http://wccftech.com/dx12-revealed-compared-dx11/
http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/3
http://www.pcworld.com/article/2900814/tested-directx-12s-potential-performance-leap-is-insane.html
http://www.techpowerup.com/210960/amd-bets-on-directx-12-for-not-just-gpus-but-also-its-cpus.html
https://community.amd.com/community/gaming/blog/2015/05/12/amd-enables-incredible-directx-12-performance-in-new-3dmark-api-overhead-feature-test
http://www.rockpapershotgun.com/2015/03/05/quadcore-gaming/

Cosa c'entra linux adesso? Da quando in qua un gioco gira meglio su Linux? :mbe:

Non si va oltre i 4 core perchè i giochi oltre i 4 non ne usano perchè non aveva senso usarne.

Il potenziale per andare oltre ora c'è.
Ora, io non discuto che le DX12 avranno un impatto sulle prestazioni non indifferente, ma guardare solo e sempre le barrette colorate senza capirle mi sembra abbastanza inutile.
Un test in particolare mi ha colpito, quello di PCWorld:
http://www.pcworld.com/article/2900814/tested-directx-12s-potential-performance-leap-is-insane.html
E' chiaro che si parla sempre e solo di Draw Call come fossero la manna che risolve tutti i problemi del 3D.
In verità in quel test si vede una cosa che è abbastanza preoccupante per tutti i profeti DX12: la Titan X, secondo quel test, è in grado di eseguire meno draw call di una 290X in DX11. Poi in DX12 il numero esplode per entrambe le schede fino a paraggiarsi.
Ora osservo un qualunque test di un gioco completo e vedo che la TitanX ha una velocità che è circa 1.5x quella di una 290X. Quindi, riassumendo: se le draw call fossero così importanti per il framerate sullo schermo, come è possibile che la TitanX fa 1.5x i frame di una 290X pur essendo più lenta?
Al che mi viene il dubbio: non è che tutto questo aumento di draw call che tanto si pubblicizza con barrette lunghe fino a 16 volte quelle DX11 ha influenza minima sui tempi finali di calcolo di un frame e che vi siano molti altri parametri che influenzano di più?
Altrimenti non mi spiego come le TitanX possano andare così tanto più veloce rispetto alla 290X che è in grado di gestire molte più draw call in DX11.

marchigiano
22-06-2015, 14:53
una ipotesi che mi è venuta in mente è: non hanno abbastanza soldi per sviluppare decentemente zen (un secondo bulldozer sarebbe inconcepibile) quindi si dividono come ha fatto motorola, la parte gpu embedded e altre robine rimangono alla amd holding qualcosa, la gamma processori con fx, opteron, sempron, apu, ecc ecc... la vendono a qualcuno con le spalle grosse che possa buttarci dentro qualche miliardo per la ricerca, poi se ha in proprio delle fonderie tanto meglio (samsung... ti pregoooo :sofico: )

calabar
22-06-2015, 15:18
In verità in quel test si vede una cosa che è abbastanza preoccupante per tutti i profeti DX12: la Titan X, secondo quel test, è in grado di eseguire meno draw call di una 290X in DX11. Poi in DX12 il numero esplode per entrambe le schede fino a paraggiarsi.
Ora osservo un qualunque test di un gioco completo e vedo che la TitanX ha una velocità che è circa 1.5x quella di una 290X. Quindi, riassumendo: se le draw call fossero così importanti per il framerate sullo schermo, come è possibile che la TitanX fa 1.5x i frame di una 290X pur essendo più lenta?
Semplice: il numero di Draw Call nei giochi attuali è dimensionato su quanti oggi le DX11 sono in grado di gestirne, a parte qualche caso di pessima ottimizzazione per PC.
Quindi perchè la Titan ha prestazioni maggiori della 290x che in DX11 gestisce più Draw Call? Semplice, perchè le Draw Call di norma non sono il collo di bottiglia, oggi piuttosto costituiscono un limite alla progettazione dei giochi: chi li programma deve stare attento a non farne troppe.

Ovviamente ci sono anche tanti altri fattori che influiscono sulle prestazioni (e ci mancherebbe altro), ma se come vedi dai grafici il tempo di frame dipende in gran parte dal carico su un solo core, è anche ovvio che distribuendo meglio il carico su più core si può ottenere un aumento di prestazioni abbastanza evidente.

Per chi deve sborsare miliardi di dollari per comprare le licenze/brevetti e deve estrarne altrettanti in un periodo di qualche anno per avere un risultato e sperare che questo sia valido al momento del lancio in un mercato saturo e in via di contrazione con un solo dominatore con il 100% (e lo avrà se AMD fallisce con Zen), no, non sono motivi validi. Per nulla.
Mi pare ovvio che si tratterebbe di un investimento a lungo termine.
Non si tratta quindi solo dell'esborso iniziare per l'acquisizione, ma soprattutto della liquidità con cui finanziare ricerca e sviluppo.
Ed è proprio questo il motivo per cui si parla di una AMD acquisita da un colosso con le spalle davvero larghe, perchè deve avere le risorse per investire a sufficienza per far tornare AMD competitiva.
Samsung in effetti parrebbe avere queste caratteristiche, anche se io non mi auguro affatto un'acquisizione da parte loro.

Tieni anche conto che una società molto grande come Intel ha anche parecchia inerzia. Muove molti soldi, ma ha anche molte spese (e si leggono anche diversi articoli in rete secondo cui tale massa comincia a pesare e Intel nonostante tutto qualche difficoltà finanziaria ce l'ha).

CrapaDiLegno
22-06-2015, 15:52
Ok, sul fatto che le draw call aumenteranno non ci sono dubbi.
Ma questo influirà veramente sul guadagno dei frame calcolabili?
Cioè, oggi si fanno scene con un determinato numero di draw call e queste non sono il collo di bottiglia. Se domani passassero da 1 milione a 16 milioni e non saranno ancora il collo di bottiglia, avremo molti più oggetti, effetti e quant'altro ma ancora non si avrebbe alcun guadagno in termini di tempi di calcolo, visto che non saranno ancora il collo si bottiglia.. o sbaglio qualcosa?

calabar
22-06-2015, 16:07
...o sbaglio qualcosa?
Più che sbagli, dimentichi.
Il load balancing sulla CPU è altra cosa rispetto all'eliminare il solo collo di bottiglia dovuto alle draw call.

Quindi non si avranno guadagni prestazionali a causa delle Draw Call (se non nei casi in cui questo sono un collo di bottiglia), ma se ne potrebbero avere nei casi in cui il load balancing consentirà ridurre i tempi di render dei frame grazie alla migliore distribuzione dei carico sulla CPU e l'eliminazione di altro overhead, come mostrato nelle figure.

CrapaDiLegno
22-06-2015, 16:23
Non sono ovvietà.
Almeno, non per te che hai fatto facile l'acquisizione di licenze e brevetti da parte di qualcuno che dovrebbe trarne vantaggio.
Vantaggio che avviene solo ed esclusivamente solo tramite un ingente investimento e con anni di attesa per un risultato altamente rischioso.
Io, sinceramente, non vedo nessuno che abbia interesse a fare una mossa del genere. Nemmeno le mega aziende che hanno tanti soldi da investire. Perché avere tanti solddi non vuol dire volerli buttare nel esso a tutti i costi. Investire in tutt'altro potrebbe quasi sicuramente portare a migliori risultati in minore tempo con rischi minori e maggiore utilizzo anche in altri mercati che non sia un mercato in contrazione.

cdimauro
22-06-2015, 17:57
Nessuno. Questo è uno spinoff, non una vendita.

Sarebbe il primo passo del giochino "good company e bad company" che tanti, tra cui anche FIAT fanno. Dividi la multinazionale in 2, in una ci metti tutte le attività che vanno bene, nell'altra tutte quelle che vanno meno bene o proprio male (esempio FIAT ha tenuto la parte che fa auto nella "bad company").

Questo ti permette di abbandonare a sè stessa la bad company se necessario.

Quindi non è un buon segno.
Concordo, ma mi pare comunque un'operazione del tutto irrealistica, per come sono ormai legate CPU e GPU nei chip AMD.
Ci sarà da scompisciarsi quando gli antitrust citeranno ARM come competitor di Intel pur di non punirli per il loro monopolio (perchè ora non sono un monopolio, nono, sono al 99%, ma finchè non sono al 100% totale nessuno si azzardi mai)
Premesso che sulla questione monopolio abbiamo già ampiamente discusso, l'antitrust non può non tenere conto dell'evolversi del mercato.

E' un fatto oggettivo che le vendite dei PC siano scese drasticamente a causa del fenomeno tablet, che sono costituiti per lo più da SoC ARM.

E' altrettanto oggettivo che anche gli smartphone stanno prendendo piede ai danni di tablet e PC, grazie all'hardware sempre più potente, e display più grandi.

Ergo: il mercato consumer non può più essere considerato coincidente esclusivamente con quello x86, ma si deve tenere conto della totalità, quindi di [B]tutti i prodotti che concorrono[B].

Per cui il mercato rappresentato dai prodotti basati su x86 è, di fatto, in posizione di minoranza rispetto a quello dei prodotti basati su ARM. Numeri e logica alla mano.
E tutto perchè quei geni di MS non vogliono far sfigurare le console.
Non vedo perché. Non è mai esistito un piano diabolico di Microsoft per castrare appositamente le prestazioni dei giochi su PC.

cdimauro
22-06-2015, 18:00
No caro, non fare quello che rivolta la frittata.
Non sono io quello che ha fatto facile l'acquisto delle proprietà AMD per farci qualcosa di utile. Il "poco prezzo" come lo hai definito tu non è di alcun incentivo. Anche fossero regalati, non cambierebbe molto.
Tu hai idea del quantitativo di denaro necessario per creare una CPU complessa come le ultime x86? Hai idea dei tempi? E hai idea del rischio di incorrere sul fatto che quando sono pronte poi Intel di potrebbe asfaltare comunque visto la sua potenza di fuoco (e i probabili progetti messi in un cassetto in attesa di essere sfruttati degnamente quando necessario)? In un mercato in continua contrazione?
La domanda "Chi mai acquisterebbe la divisione CPU di AMD" ha senso eccome, e non è dovuta a nessun fanboyismo particolare.
Viceversa la tua "faciloneria" nel tentare di dimostrare che il valore della cosa sia assolutamente vantaggioso per il "poveraccio" che se ne prende carico, dimostra come un fanboy non sappia valutare alcun aspetto reale delle cose che non siano solo a favore della sua azienda preferita.
E' un fatto noto che con Project Denver nVidia avesse sviluppato un processore compatibile con x86, ma ha dovuto ripiegare su ARM proprio perché non aveva le necessarie licenze x86, che ovviamente Intel non ha alcuna intenzione di cedere.

Il problema è che nVidia non avrebbe comunque potuto acquisire AMD, perché sarebbe venuta meno la concorrenza in ambito GPU...

cdimauro
22-06-2015, 18:02
Tutta la profondità e validità del tuo commento starebbe nell'avere una serie di licenze e brevetti che nessun altro ha a parte (la patetica e poco convincente sul mercato) Intel?
Ci risiamo. Motivi per queste tue affermazioni?

bobafetthotmail
22-06-2015, 18:20
In verità in quel test si vede una cosa che è abbastanza preoccupante per tutti i profeti DX12: la Titan X, secondo quel test, è in grado di eseguire meno draw call di una 290X in DX11. Poi in DX12 il numero esplode per entrambe le schede fino a paraggiarsi.
Ora osservo un qualunque test di un gioco completo e vedo che la TitanX ha una velocità che è circa 1.5x quella di una 290X. Quindi, riassumendo: se le draw call fossero così importanti per il framerate sullo schermo, come è possibile che la TitanX fa 1.5x i frame di una 290X pur essendo più lenta?
Una draw call è un ordine che il processore manda alla GPU per fare qualcosa. Un ordine, un comando (letteralmente il nome è "chiamata di disegno o a disegnare"). La GPU poi dovrà fare qualcosa per appunto "disegnare" la cosa richiesta.

Nel caso della Titan che citi, probabilmente c'è di mezzo qualcosa che limita ulteriormente la capacità del processore di fare draw call alla GPU. Il driver, il gioco, il bench o dio solo lo sa.

Ma la velocità di elaborazione dipende anche da quanto va la GPU, e la titan va comunque di più, quindi se guardi gli fps sono comunque maggiori.

Mentre con le DX12 il numero si pareggia perchè evidentemente spariscono tutti i colli di bottiglia specifici della scheda video e si sbatte contro il limite di quacls'altro che non c'entra con le draw call, probabilmente il gioco stesso che più di tanto non va o qualche bus o vattelapesca.
Ma comunque una GPu che va di più continua a sputare più fps.
Stai cambiando solo uno dei fattori che determinano il risultato.

Nei link postati c'è anche questo comunque, dove le barrettine colorate sono dei fps, non delle esotiche draw call.

http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/3

Star Swarm era il gioco ottimizzato per Mantle, quindi si assume che sia stato abbastanza facile adattarlo alle DX12.
Cosa si vede? un palese BRUAHAHAHAHAHA delle DX12 dove il framerate passa da un 26 fps per una GTX 980 ad un 66 fps

O da un 8 fps a un 42 fps per una 290X.

In blu i framerate con Mantle mostrano come la differenza sia scarsa tra DX12 e Mantle.

Oh il raddoppio e anche di più ci sta tutto eh. fps, non draw call.

Poi certo deve essere un gioco dove ci sono molte draw call, sennò ovvio che non cambia nulla.

Ma mi pare che Asscreed fosse uno di quelli, quindi probabilmente molti/tutti gli AAA sono nella stessa barca.

E' un fatto oggettivo che le vendite dei PC siano scese drasticamente a causa del fenomeno tablet, che sono costituiti per lo più da SoC ARM.

E' altrettanto oggettivo che anche gli smartphone stanno prendendo piede ai danni di tablet e PC, grazie all'hardware sempre più potente, e display più grandi.

Ergo: il mercato consumer non può più essere considerato coincidente esclusivamente con quello x86, ma si deve tenere conto della totalità, quindi di tutti i prodotti che concorrono[b].Tutto molto bello ma in sede legale conta cosa è definito come "mercato". Se si parla di desktop e laptop allora sì, già adesso diventa difficile sostenere la tesi del non-monopolio, se contiamo il mercato "consumer" allora va bene tutto.

Sono queste le cose su cui si divertono gli avvocati, tomelle inutili e senza senso.

Comunque concordo, se Intel non sta attenta qualche furbone (Google, vari OEM) con processori ARM gli ciulano anche il mercato desktop, complici le app universali.

E francamente, dividere Intel farebbe più danno che utile. Non che non sia giusto causa pratiche scorrette, ma finchè gli ARM non sono all'altezza non è una buona idea liberarsi di Intel.

Non vedo perché. Non è mai esistito un piano diabolico di Microsoft per castrare appositamente le prestazioni dei giochi su PC.[B]Nono, non c'è nessun piano diabolico, la scelta di tenere le draw call in single core sui PC mentre su console che fanno girare lo stesso OS è invece multicore è logica e razionale scelta di mercato.
Si chiama conflitto di interessi ed è comune, comunissimo.
MS è monopolista nei PC quindi anche se li castricchia non rischia nulla (per ora), mentre per le console ha bisogno di tutto quello che c'è per fare concorrenza.

shellx
22-06-2015, 18:29
Ma da notare soprattutto come queste focose discussioni sono generate da un articolo FUD (o in alternativa chiamatelo pure fake) ormai chiaro per il 90% nel web. Ma peggio ancora è quando leggi alcuni confondere un ipotetico spinoff aziendale (che in questo caso è un chiaro fud da parte di troller) con la vendita dell'azienda: cioè praticamente "Total Ignorance".

http://www.bitsandchips.it/50-enterprise-business/5727-pin-off-di-amd-fud-incontrollato-a-sunnyvale
http://wccftech.com/update-amd-denies-rumors-potential-breakup-spinoff/

leggete leggete

massimo79m
22-06-2015, 18:42
A parte amd, quello che mi fa girare le pale come un elicottero e' quello che riguarda l'hp.

Prima ste testedi***** comprano la compaq, che era forse la migliore azienda in campo pc, workstation e server, e la sopprimono, mettendo il marchio compaq solo su alcuni notebook.
adesso vogliono dividerla in due.

mavacagare, va'!

cdimauro
22-06-2015, 18:55
Tutto molto bello ma in sede legale conta cosa è definito come "mercato". Se si parla di desktop e laptop allora sì, già adesso diventa difficile sostenere la tesi del non-monopolio, se contiamo il mercato "consumer" allora va bene tutto.

Sono queste le cose su cui si divertono gli avvocati, tomelle inutili e senza senso.
La considerevole perdita di quote di mercato a opera di tablet non è configurabile come "tomelle inutili e sensa senso", che ovviamente ha inciso notevolmente sui bilanci di Intel e AMD.

Dunque l'antitrust deve tenerne conto in eventuali suoi provvedimenti.
Comunque concordo, se Intel non sta attenta qualche furbone (Google, vari OEM) con processori ARM gli ciulano anche il mercato desktop, complici le app universali.
Mi sembra che il fallimento di Windows RT sia lì a dimostrare quanto fossero utili (alla causa di ARM) le app universali.

Inoltre le vendite di Chromebook con processori x86 sono aumentate molto.

Se tanto mi dà tanto, non mi pare che Intel abbia di che preoccuparsi da questo punto di vista.
E francamente, dividere Intel farebbe più danno che utile. Non che non sia giusto causa pratiche scorrette,
Non esistono pratiche scorrette da parte di Intel.
ma finchè gli ARM non sono all'altezza non è una buona idea liberarsi di Intel.
"Non dire gatto se non ce l'hai nel sacco" (cit.)

Lasciamo che sia il mercato a decidere chi deve vivere e chi deve morire.
Nono, non c'è nessun piano diabolico, la scelta di tenere le draw call in single core sui PC mentre su console che fanno girare lo stesso OS è invece multicore è logica e razionale scelta di mercato.
Si chiama conflitto di interessi ed è comune, comunissimo.
MS è monopolista nei PC quindi anche se li castricchia non rischia nulla (per ora), mentre per le console ha bisogno di tutto quello che c'è per fare concorrenza.
Allora ti faccio un paio di domande.

La XBox 360 scarica su tutti i core le operazioni di draw-call, come fanno XBoxOne e DirectX12?

Considerato che i driver OpenGL sono sempre stato appannaggio dei produttori di schede video e non di Microsoft, allora fin dall'introduzione di sistemi multi-socket prima, e multi-core poi, questa libreria ha scaricato su tutti i core le operazioni di draw-call? In particolare, Linux avrebbe dovuto farlo da tempo, immagino.

bobafetthotmail
22-06-2015, 19:17
La considerevole perdita di quote di mercato a opera di tablet non è configurabile come "tomelle inutili e sensa senso", che ovviamente ha inciso notevolmente sui bilanci di Intel e AMD.Irrilevante. Quello che conta è la quota di mercato, e quello che conta è la definizione di "mercato".

Mi sembra che il fallimento di Windows RT sia lì a dimostrare quanto fossero utili (alla causa di ARM) le app universali.Quelle erano app universali tra win8 desktop e win8 RT, Due OS uno meglio dell'altro con vendite paurose.

Inoltre le vendite di Chromebook con processori x86 sono aumentate molto.Già, i celeron dimmerda dove il margine di Intel è minuscolo. Quelli con processori grossi non vendono un granchè.

Non esistono pratiche scorrette da parte di Intel.Consiglio di essere un pochino meno partigiano, rischi di passare per un fanboy. :rolleyes:
http://www.dailytech.com/FTC+Intel+Reach+Settlement+Intel+Banned+From+Anticompetitive+Practices/article19265.htm
http://www.extremetech.com/computing/184323-intel-stuck-with-1-45-billion-fine-in-europe-for-unfair-and-damaging-practices-against-amd

Lasciamo che sia il mercato a decidere chi deve vivere e chi deve morire.Sì certo così i pesci grossi si ingrossano e i piccoli muoiono.

Non so se hai notato ma il mercato funziona così, alla fine ne resta solo uno che ha in mano tutti i marchi.

La XBox 360 scarica su tutti i core le operazioni di draw-call, come fanno XBoxOne e DirectX12?Sembra di sì. http://www.bit-tech.net/hardware/graphics/2011/03/16/farewell-to-directx/2
Qui parlano di PS3 ma è uguale.
Notare come tirasse 10k draw call contro 2k di un PC gaming.
A me sembra palese che stanno facendo i furbi.

Considerato che i driver OpenGL sono sempre stato appannaggio dei produttori di schede video e non di Microsoft, allora fin dall'introduzione di sistemi multi-socket prima, e multi-core poi, questa libreria ha scaricato su tutti i core le operazioni di draw-call?Rendeva possiible farlo, ma OpenGL ha sempre goduto di meno favore nei giochi per strane ed arcane ragioni collegate alle vendite delle console e alla dominanza del mercato PC da parte di windows.

Perchè anche nella PS3 e PS4 ci sono le directx eh. http://www.geek.com/games/sony-iimprove-directx-11-for-the-ps4-blu-ray-1544364/
Lascio al lettore indovinare cosa c'è nelle Xbox, directx o openGL.

OpenGL l'ho sempre sentito più collegato al computing che ad altro, ma abbiamo qui NVIDIA, AMD e Intel in seduta congiunta che dicono cose..
http://blogs.nvidia.com/blog/2014/03/20/opengl-gdc2014/

dicono che le performance aumentano di 1.2 volte di base e di 7-15 se ottimizzi, se usi OpenGL

Valve ha portato Source a linux tempo fa e in un mesetto sono arrivati ad appunto questo 1.2 di aumento prestazionale rispetto a windows che ci sono sopra da sempre. http://www.extremetech.com/gaming/133824-valve-opengl-is-faster-than-directx-even-on-windows

Siamo oltre il palese qui.

In particolare, Linux avrebbe dovuto farlo da tempo, immagino.Nessuno gioca sui server, ai puristi evidentemente non piace giocare su linux, e Ubuntu tanto per cambiare non ha mosso un dito.

cdimauro
22-06-2015, 19:57
Irrilevante. Quello che conta è la quota di mercato, e quello che conta è la definizione di "mercato".
Se i tablet ARM rubano quote di mercato ai PC x86, vuol dire che si contendono lo stesso mercato. Ergo: il mercato è lo stesso. No rocket science, here...
Quelle erano app universali tra win8 desktop e win8 RT, Due OS uno meglio dell'altro con vendite paurose.
Bene. Allora di quali altre app universali sei a conoscenza?
Già, i celeron dimmerda dove il margine di Intel è minuscolo.
Ma costano meno da produrre e vendono molto. Ergo: ci rifà sulla quantità e sulle minori dimensioni.

Infatti i Celeron esistono, e continuano a esistere (anzi, adesso c'è anche più varietà), da tempo immemore.
Quelli con processori grossi non vendono un granchè.
Vox populi, vox dei. Ma finché c'è domanda, ci sarà produzione.
Consiglio di essere un pochino meno partigiano, rischi di passare per un fanboy. :rolleyes:
http://www.dailytech.com/FTC+Intel+Reach+Settlement+Intel+Banned+From+Anticompetitive+Practices/article19265.htm
http://www.extremetech.com/computing/184323-intel-stuck-with-1-45-billion-fine-in-europe-for-unfair-and-damaging-practices-against-amd
Riporto quello che avevi scritto:

"E francamente, dividere Intel farebbe più danno che utile. Non che non sia giusto causa pratiche scorrette,"

Assumo che ti stia riferendo a qualche novità (di cui a quanto pare soltanto tu saresti stato al corrente), perché ciò che hai riportato è roba di non meno di 8 anni fa (ultimi episodi: 2007), per la quale Intel è già stata condannata e ha già pagato, per cui non c'è nulla che possa anche minimamente far pensare di riaprire quel caso.
Sì certo così i pesci grossi si ingrossano e i piccoli muoiono.
In effetti in natura non capita così spesso...
Non so se hai notato ma il mercato funziona così, alla fine ne resta solo uno che ha in mano tutti i marchi.
Se gli altri si suicidano, non può farci niente. E non sono affari suoi.
Sembra di sì. http://www.bit-tech.net/hardware/graphics/2011/03/16/farewell-to-directx/2
Qui parlano di PS3 ma è uguale.
Notare come tirasse 10k draw call contro 2k di un PC gaming.
Parla soltanto di overhead, e non di distribuzione del lavoro delle draw call su più core, com'è stato introdotto con le DirectX 12.

E' noto da tempo che le console hanno molto meno overhead: meno layer di astrazione e accesso molto più vicino all'hardware.

Ma ciò di cui stiamo parlando è qualcosa di diverso. E in questo caso o c'è o non c'è la distribuzione del carico di lavoro delle draw call su più core.
Rendeva possiible farlo, ma OpenGL ha sempre goduto di meno sviluppo quindi meno performance nei giochi per strane ed arcane ragioni collegate alle vendite delle console e alla dominanza del mercato PC da parte di windows.
Le OpenGL sono state le API regine e più performanti su PC, fino dalle DirectX 9. Poi hanno perso terreno proprio a causa di queste ultime, e il consorzio non è riuscito a stare al passo dell'evoluzione delle DX.

In ogni caso rimane quanto già detto: sono i produttori delle schede video a mettere a disposizione i mini-port OpenGL, e non Microsoft. E avrebbero potuto benissimo realizzare quanto adesso è stato realizzato con le DX12, con qualche decennio d'anticipo.
Perchè anche nella PS3 e PS4 ci sono le directx eh. http://www.geek.com/games/sony-iimprove-directx-11-for-the-ps4-blu-ray-1544364/
Lascio al lettore indovinare cosa c'è nelle Xbox, directx o openGL.
Quindi? E' pertinente rispetto al discorso draw call spalmate su più core?
OpenGL l'ho sempre sentito più collegato al computing che ad altro
A maggior ragione ne avrebbero beneficiato, visto che il software professionale è da tempo appannaggio delle OpenGL.
Nessuno gioca sui server, ai puristi evidentemente non piace giocare su linux, e Ubuntu tanto per cambiare non ha mosso un dito.
Spalmare il lavoro delle draw call su più core non è un vantaggio soltanto per i giochi, ma per tutto il sottosistema grafico.

Da tempo si utilizza il compositing per le interfacce grafiche. O su Linux sono ancora fermi al framebuffer VESA? :asd:

calabar
22-06-2015, 23:39
Se i tablet ARM rubano quote di mercato ai PC x86, vuol dire che si contendono lo stesso mercato. Ergo: il mercato è lo stesso. No rocket science, here...
Beh, non proprio.
Se la gente non mangia per comprarsi l'iphone (cit), non è che l'iphone e le fettine di manzo condividono lo stesso mercato. :D

Ovviamente l'esempio è estremo, giusto per capirsi. Qui in realtà è in una via di mezzo: da una parte alcuni hanno effettivamente sostituito il PC con un tablet, ma dall'altra c'è gente che semplicemente ha deciso di spendere quei soldi in un altro oggetto che desiderava (il tablet, ma poteva essere anche un set LEGO) e ha pensato di poter rimandare l'aggiornamento del PC.

Per questo credo che il calo del mercato PC sia un fenomeno temporaneo, ad un certo punto buona parte della gente che ha saltato un aggiornamento del PC per prendersi il tablet il PC lo dovrà aggiornare comunque, proprio perchè in molti casi i due dispositivi non sono equivalenti.

bobafetthotmail
22-06-2015, 23:52
Se i tablet ARM rubano quote di mercato ai PC x86, vuol dire che si contendono lo stesso mercato. Ergo: il mercato è lo stesso. No rocket science, here...1. lo devi dimostrare in sede legale
2. deve piacere come idea al garante
3. la logica in ambito legale non ti porta da nessuna parte

Bene. Allora di quali altre app universali sei a conoscenza?Win10, con app che vanno dal mobile al fisso, si vocifera anche di importarle da Android.

Google Chrome, che ha le sue app che girano dentro a Chrome e che permette il porting di app android dentro di esso.

Quel framework di cui hai parlato tu nel thread dei webassembly.

Ma costano meno da produrre e vendono molto. Ergo: ci rifà sulla quantità e sulle minori dimensioni.Restano prodotti non di punta, facilmente sostituibili nelle prossime generazioni con qualsiasi altra cosa per via di cosa è ChromeOS.

Sai bene anche tu che si fanno i soldi vendendo poco a molto, non molto a poco.

E infatti i profitti sono in calo significativo http://www.reuters.com/article/2015/03/13/us-intel-forecast-idUSKBN0M81JU20150313

Assumo che ti stia riferendo a qualche novità (di cui a quanto pare soltanto tu saresti stato al corrente), Non hai specificato il frame temporale però. Non è valido dire "emanoalloradicevoun'altracosaio" dopo che ho risposto. :Prrr:

Comunque come "pratiche scorrette" io ci faccio rientrare tutte quelle features a livello hardware che fanno da backdoor hardware senza possibilità di disattivarle o rimuoverle. Spero tu abbia capito di cosa parlo...:rolleyes:

In effetti in natura non capita così spesso...Se l'ecosistema si sbilancia? Sì che succede. In genere finisce con i predatori che si mangiano tra loro.
Tradotto in termini economici, farsi concorrenza da soli. Come Windows 7 ed XP che fanno concorrenza a Win10.

O un processore sandy o ivy bridge che continua ad essere perfettamente in grado di fare tutto anche oggi. che blocca le vendite del nuovo.

Cioè quello che sta succedendo ora.

Se gli altri si suicidano, non può farci niente. E non sono affari suoi.Ma gli effetti sugli altri sono affari di qualcuno che ha più potere di Intel, come ad esempio una nazione, ecco perchè esistono i garanti esterni e gli stati e le leggi.

E' noto da tempo che le console hanno molto meno overhead: meno layer di astrazione e accesso molto più vicino all'hardware.Sembra che in alcuni casi sia anche falso. http://www.eurogamer.net/articles/digitalfoundry-directx-360-performance-blog-entry

Ma ciò di cui stiamo parlando è qualcosa di diverso. E in questo caso o c'è o non c'è la distribuzione del carico di lavoro delle draw call su più core.Considerando quanto sono opachi, è un pò difficile saperlo per certo.

E avrebbero potuto benissimo realizzare quanto adesso è stato realizzato con le DX12, con qualche decennio d'anticipo.Perchè fare fatica? Tanto OpenGL o DX sempre le loro schede devi comprare.

A maggior ragione ne avrebbero beneficiato, visto che il software professionale è da tempo appannaggio delle OpenGL.Vedi sopra.

Da tempo si utilizza il compositing per le interfacce grafiche.Manco Ubuntu necessita di sta gran quantità di risorse per far girare Unity, serve solo una scheda recente.

MaxFabio93
23-06-2015, 01:23
Per i processori seri non è un gradino sotto, è proprio fuori dai giochi. Server è fuori, gaming anche.

Ma cosa stai dicendo? Fuori dal gaming? Ci sono moltissimi gamers (come me) che acquistano e usano processori AMD per giocare da sempre o quasi, nel mio caso il primo era un fantastico Intel Pentium IV ma dopo l'Athlon 64 non ho più avuto dubbi.

Giocare con gli FX non è di certo impossibile o difficile come sostengono da sempre gli haters ed è come giocare con la controparte, io utilizzo ancora un fantastico AMD Phenom II X6 del 2010, esattamente 5 anni fa, dettagli alti anche con giochi recentissimi e pesanti. Le sottili differenze non giustificano di certo questo accanimento e le differenze di prezzo che sono dettate solo da pubblicità maggiore, inganni e dai benchmark pompati a favore di qualcuno.

cdimauro
23-06-2015, 05:46
Beh, non proprio.
Se la gente non mangia per comprarsi l'iphone (cit), non è che l'iphone e le fettine di manzo condividono lo stesso mercato. :D

Ovviamente l'esempio è estremo, giusto per capirsi. Qui in realtà è in una via di mezzo: da una parte alcuni hanno effettivamente sostituito il PC con un tablet, ma dall'altra c'è gente che semplicemente ha deciso di spendere quei soldi in un altro oggetto che desiderava (il tablet, ma poteva essere anche un set LEGO) e ha pensato di poter rimandare l'aggiornamento del PC.

Per questo credo che il calo del mercato PC sia un fenomeno temporaneo, ad un certo punto buona parte della gente che ha saltato un aggiornamento del PC per prendersi il tablet il PC lo dovrà aggiornare comunque, proprio perchè in molti casi i due dispositivi non sono equivalenti.
Il problema è che il calo, notevole, c'è stato e dopo diversi anni dall'introduzione dei tablet siamo all'incirca agli stessi livelli (c'era stato un lieve miglioramento un po' di mesi fa, ma di recente è di nuovo calato).

Quindi o i consumatori stanno rimandando l'acquisto del PC per quando saranno in pensione, o i tablet hanno fregato quella parte di mercato ai PC...

cdimauro
23-06-2015, 06:02
1. lo devi dimostrare in sede legale
2. deve piacere come idea al garante
3. la logica in ambito legale non ti porta da nessuna parte
E quindi anche se lo dimostrassi (ed è facile farlo, numeri alla mano), potrebbe non cambiare nulla.

Ah, questi garanti dalla logica inoppugnabile...
Win10, con app che vanno dal mobile al fisso, si vocifera anche di importarle da Android.
Verranno tradotte da Android (e iOS, se non ricordo male), ma diventeranno app universali.

Rimane, in ogni caso, la situazione di Windows RT.
Google Chrome, che ha le sue app che girano dentro a Chrome e che permette il porting di app android dentro di esso.

Quel framework di cui hai parlato tu nel thread dei webassembly.
In entrambi i casi rimaniamo in ambito web. Va bene per tante cose, ma le applicazioni desktop / per desktop, hanno il vantaggio di offrire maggiori prestazioni e un'esperienza d'uso migliore.

Per fare un esempio, di recente Microsoft ha annunciato di sopprimere Skype per Modern. Rimarrà soltanto la versione desktop. Considerato quanto stia puntando sullo store (e quindi sulle app universali), è una retromarcia che fa pensare molto.
Restano prodotti non di punta, facilmente sostituibili nelle prossime generazioni con qualsiasi altra cosa per via di cosa è ChromeOS.
Senz'altro. Ma all'inizio del Chromebook ARM dominava. Ma già da tempo c'è una caterva di soluzioni x86 che vendono molto...
Sai bene anche tu che si fanno i soldi vendendo poco a molto, non molto a poco.
Dipende dal tipo di mercato. Non sono tutti uguali.
E infatti i profitti sono in calo significativo http://www.reuters.com/article/2015/03/13/us-intel-forecast-idUSKBN0M81JU20150313
Qui parla di calo dei desktop, non dei Celeron.
Non hai specificato il frame temporale però. Non è valido dire "emanoalloradicevoun'altracosaio" dopo che ho risposto. :Prrr:
Permettimi: hai usato il condizionale, paventando quindi uno scenario futuro. Perché il passato, come ho già detto, è stato archiviato e non ci si torna.

Dunque o saltano fuori nuove pratiche scorrette, oppure di divisione di Intel non se ne parla proprio.
Comunque come "pratiche scorrette" io ci faccio rientrare tutte quelle features a livello hardware che fanno da backdoor hardware senza possibilità di disattivarle o rimuoverle. Spero tu abbia capito di cosa parlo...:rolleyes:
Onestamente è un discorso un po' generico. Se aggiungessi qualche altro dettagli, mi farebbe comodo per capire meglio.

Comunque si tratterebbe di cose per cui un'azienda come Intel potrebbe essere divisa?
Se l'ecosistema si sbilancia? Sì che succede. In genere finisce con i predatori che si mangiano tra loro.
Tradotto in termini economici, farsi concorrenza da soli. Come Windows 7 ed XP che fanno concorrenza a Win10.

O un processore sandy o ivy bridge che continua ad essere perfettamente in grado di fare tutto anche oggi. che blocca le vendite del nuovo.

Cioè quello che sta succedendo ora.
In genere la natura provvede da sé, ed è cosa normale avere cicli in cui aumentano le prede, poi i predatori e dunque diminuiscono le prede, e così via. Il sistema si auto-regola.

Nel nostro caso, il flop di Windows 8 ha fatto da tampone per l'ammodernamento dei PC. E la bontà dei processori Intel ha fatto lo stesso per il rinnovo dell'hardware. Ma sono entrambe le cose destinate a cambiare coi nuovi prodotti. Cicli e riclici storici...
Ma gli effetti sugli altri sono affari di qualcuno che ha più potere di Intel, come ad esempio una nazione, ecco perchè esistono i garanti esterni e gli stati e le leggi.
Senz'altro, ma non vedo per quale motivo se tu ti suicidi le conseguenze le debba pagare io.
Sembra che in alcuni casi sia anche falso. http://www.eurogamer.net/articles/digitalfoundry-directx-360-performance-blog-entry
Ma non sono mica le stesse DirectX: dov'è scritto che abbiano lo stesso overhead presente nei PC?

Riporto un articolo (http://www.bit-tech.net/hardware/graphics/2011/03/16/farewell-to-directx/1) che avevi fornito prima, ma alla prima pagina (tu avevi riportato la seconda).
Considerando quanto sono opachi, è un pò difficile saperlo per certo.
Ma in passato non se n'è mai parlato, mentre soltanto di recente è venuto fuori Mantle prima e le DirectX poi, che sono focalizzate proprio su quest'aspetto. Questo penso che qualcosa vorrà pur dire...
Perchè fare fatica? Tanto OpenGL o DX sempre le loro schede devi comprare.
Visto che c'è concorrenza, se nVidia non l'ha implementato nelle sue schede, AMD avrebbe potuto farlo nelle sue e portarsi in posizione di vantaggio = tanti bei soldi (visto che è un mercato molto profittevole).
Vedi sopra.

Manco Ubuntu necessita di sta gran quantità di risorse per far girare Unity, serve solo una scheda recente.
Quindi il framebuffer VESA è sufficiente, accoppiato a una scheda recente? ;)

P.S. Non ho tempo di rileggere, mi spiace.

calabar
23-06-2015, 07:57
Il problema è che il calo, notevole, c'è stato e dopo diversi anni dall'introduzione dei tablet siamo all'incirca agli stessi livelli (c'era stato un lieve miglioramento un po' di mesi fa, ma di recente è di nuovo calato).
Quindi o i consumatori stanno rimandando l'acquisto del PC per quando saranno in pensione, o i tablet hanno fregato quella parte di mercato ai PC... numeri
Il calo c'è stata da quando i tablet hanno cominciato a diventare interessanti. Tablet è smartphone a dire il vero.
E, a differenza di 10 anni fa, è anche vero che oggi un PC è capace di essere un po' più longevo (sarà anche per questo che oggi sui notebook trovi quasi esclusivamente processori Intel a basso consumo, mentre un tempo trovavi processori standard da 35W? Per ridurre la longevità?), e quindi buona parte della gente che ha comprato un Core2 può vivere felice per parecchi anni.

CrapaDiLegno
23-06-2015, 08:45
ma dove ho fatto facile? ho detto solo che se AMD fallisce a prezzo di saldo non sarebbero pochi ad esserne interessati all'acquisto. :muro:
E ti sembra che dire "per poco prezzo" non sia rendere la cosa facile? Come detto non vedrei molte aziende disponibili per prendersi in carico le licenze nemmeno fossero gratis. Figuriamoci se devono pure pagarle insieme ai debiti pregressi di AMD.

Ci risiamo. Motivi per queste tue affermazioni?
Ahaahahah... come sospettavo, hai seri problemi a comprendere le cose... ironia, questa sconosciuta.

[...]
Nei link postati c'è anche questo comunque, dove le barrettine colorate sono dei fps, non delle esotiche draw call.

http://www.anandtech.com/show/8962/the-directx-12-performance-preview-amd-nvidia-star-swarm/3

Star Swarm era il gioco ottimizzato per Mantle, quindi si assume che sia stato abbastanza facile adattarlo alle DX12.
Cosa si vede? un palese BRUAHAHAHAHAHA delle DX12 dove il framerate passa da un 26 fps per una GTX 980 ad un 66 fps

O da un 8 fps a un 42 fps per una 290X.

In blu i framerate con Mantle mostrano come la differenza sia scarsa tra DX12 e Mantle.

Oh il raddoppio e anche di più ci sta tutto eh. fps, non draw call.

Poi certo deve essere un gioco dove ci sono molte draw call, sennò ovvio che non cambia nulla.

La questione draw call la conosco. Non capisco perché però tutti credano che l'aumento del numero di chiamate permetterà di diminuire il tempo di calcolo di un frame. Come hai detto tu, il tempo reale di elaborazione la fa la GPU, e che la lista di comandi arrivi da DX11 o D12, sempre quelle istruzioni deve eseguire.

L'esempio del gioco riportato è alquanto significativo, nel non essere significativo o volutamente creato per creare barrette lunghissime. Basta vedere come è stato fatto per DX11 per rendersi conto che qualcosa non va. Su AMD fa 1/3 dei frame rispetto ad nvidia, e già qui qualcosa dovrebbe far storcere in naso. Vuol dire proprio aver usato le librerie DX11 nel peggiore dei modi. Poi tramite solo la moltiplicazione dei pani e dei pesci (a no, delle draw call) il numero di frame spara a mille mila.
Ora, che il parallelismo su CPU permetta di bilanciare meglio i carichi e superare il collo di bottiglia del numero delle draw call che una CPU scrausa possa fare, ci sta e non lo nego. La cosa è anche abbastanza ovvia.
Ma che passare da 1K a 16K permetta di incrementare il numero di frame significa semplicemente aver impostato il motore su migliaia di micro draw call che sono apparentemente inutili. Sembra una estremizzazione della cosa per far saltar fuori un collo di bottiglia tutto sommato non è così stretto.
D'altronde se il numero di oggetti/texture/effetti che una GPU può elaborare sono quelli, il numero di draw call con le quali si eseguono è indifferente se queste ultime sono in grado di non far stallare la GPU.
E una CPU decente non ha problemi a fornire abbastanza istruzioni alla GPU per tenerla occupata al 100%. Quindi, boh, non ho capito ancora da dove verrà tutto questo guadagno dei frame se non nel vero sudore degli sviluppatori che con chiamate a più basso livello devono rifarsi "a manina" buona parte delle operazioni che le dX11 permettevano in maniera "diretta".
D'altronde i giochi Mantle non è che mostrassero un raddoppio di frame.. la massimo si parlava del 20% in più nelle situazioni più disperate.
Alla fine non capisco chi sta dando questo valore miracoloso alle DX12 quando continua a ripetere il mantra: vedrete con le DX12, vedrete come andranno meglio. Sì, andrà tutto meglio (CPU e GPU) col passare del tempo (e molto anche) , ma io non vedo alcuna reale rivoluzione in arrivo.

bobafetthotmail
23-06-2015, 11:01
Ma cosa stai dicendo? Fuori dal gaming?Nono, spiegato male.
per "fuori dai giochi" intendevo che non sono competitivi nella cosa che ho detto poco prima, cioè nei processori ad alte performance.

Nel gaming senza troppe pretese o pippe mentali che dirsivoglia vanno benissimo. è quando vai oltre i 6 core che cominci a chiederti perchè lo hai fatto.

E quindi anche se lo dimostrassi (ed è facile farlo, numeri alla mano), potrebbe non cambiare nulla.Cosa dimostri scusa? Se parte un giro di vite sul mercato desktop (o sul mercato server dove è al 99.99%) puoi portare tutte le prove che vuoi sui tablet, ti fanno pat pat sulla testa e basta.

Ma anche se fosse un "monopolio su tutto il mercato consumer non meglio definito" come dici tu.. Oh, c'è gente che ci sono prove che ha mandato terzi a dare suoi soldi come bustarelle a gente che li ha presi, i terzi che hanno dato i soldi sono in galera, e se la cava con boh non si sa bene cosa.

Il mondo legale a questi livelli assomiglia veramente tanto alle "leggi" e ai "decreti" medievali, con gente che dice che quelli che fanno dispositivi rettangolari con spigoli tondi li devono pagare e cose del genere, ovviamente si aggiusta sempre tutto scambiandosi soldi a tarallucci e vino e quasi mai per vie legali.

Rimane, in ogni caso, la situazione di Windows RT.Mio nonno. Windows 8 non era compatibile con le app winphone.
Cioè ufficialmente sì grazie a WinRT ma nella realtà no.

Se in Win10 fanno lo stesso errore poi rido quando la gente resta su 7 e XP fino al 2020 inoltrato.

In entrambi i casi rimaniamo in ambito web. Va bene per tante cose, ma le applicazioni desktop / per desktop, hanno il vantaggio di offrire maggiori prestazioni e un'esperienza d'uso migliore.Lo sai vero che c'è una ampia categoria di app offline? https://chrome.google.com/webstore/category/collection/offline_enabled
client di posta, word editor, excel editor di googol, video, foto, giochini...

QUeste sono le app progettate per ChromeOS ma vanno ovunque ci sia Chrome.

Inoltre, quel framework che hai citato permette di fare app universali per tutte le piattaforme, non c'entra il web.

Qui parla di calo dei desktop, non dei Celeron.La storia è la stessa sai, i celeron che vendono ora non verranno sostituiti (i prodotti con i celeron) per lungo tempo per la stessa ragione dei desktop (non cè alcuna ragione oggettiva per farlo). Solo che adesso stanno espandendosi, quindi vendono decentemente.

Dunque o saltano fuori nuove pratiche scorrette, oppure di divisione di Intel non se ne parla proprio.è inutile che tu sia così categorico, a livello legale si può fare tutto e il contrario di tutto, basta pagare.

In genere la natura provvede da sé, ed è cosa normale avere cicli in cui aumentano le prede, poi i predatori e dunque diminuiscono le prede, e così via. Il sistema si auto-regola.La teoria del mercato che si autoregola è senza senso nell'economia come nella biologia. Il sistema si auto-regola ma ha dei limiti ben precisi, oltrepassati i quali le specie si estinguono.
https://en.wikipedia.org/wiki/Extinction

Tanto per cambiare la verità sta nel mezzo, non controllo totale dello stato, non lazzes faire da parte dello stato.

Nel nostro caso, il flop di Windows 8 ha fatto da tampone per l'ammodernamento dei PC. E la bontà dei processori Intel ha fatto lo stesso per il rinnovo dell'hardware. Ma sono entrambe le cose destinate a cambiare coi nuovi prodotti. Cicli e riclici storici...:asd: mi fai scompisciare.

L'hai visto o no che c'è tanta ma tanta gente che usa ancora PC con socket 775 o equivalenti AMD senza particolari problemi?

Secondo te 10 anni fa era una cosa normale che della gente usasse ancora macchine di 7-8 anche 9 anni prima?

Che della gente rimanesse su un OS uscito 10 anni prima?

Non si è ammodernata na sega, un PC qualsiasi con su Vista o successivi va benissimo e continuerà ad andare benissimo per i prossimi secoli se non muovete il didietro e fate processori più potenti.

Tutto il settore consumer sta andando a donnine perchè non riuscite a fare macchine più potenti, lo capisci?

E poi mi dici che è colpa delle padelle e dei tablet se non vendono PC? Ma a me pareva che le vendite fossero in caduta libera anche prima eh. Il fenomeno è stato esacerbato dal mobile, ma era comunque causato dalla mancanza di aumenti prestazionali rilevanti.

Senz'altro, ma non vedo per quale motivo se tu ti suicidi le conseguenze le debba pagare io.Nessuno di noi due è una azienda che vende cose, quindi la dipartita di uno o entrambi non solleverebbe nessuna obiezione.

Se si parla di aziende che vendono cose la situazione cambia.

In una condizione di monopolio i prezzi salgono senza ragione (un pò come è successo dal 2013 in poi per i processori intel :rolleyes:), e a chi ha il potere (ma un pò a tutti) questo non sta bene.

Poi ci aggiungono anche la faccenda che senza competizione non c'è innovazione (basta guardare Windows o Mac, fortissime cataclismiche innovazioni negli ultimi 7-8 anni), di nuovo perchè fa comodo a chi ha il potere, mica a te.

I sistemi legali e gli stati esistono fondamentalmente per imporrre decisioni su terzi più deboli di tali stati, per costringerli a fare l'interesse dello stato/popolazione andando contro ai suoi interessi.

Cioè hai presente le tasse? Pagare dei soldi a caso non è contro gli interessi dell'azienda? Ma lo stato le costringe a farlo (poi c'è chi fa il furbo in modi più o meno legali).

Recentemente Intel le sta prendendo dagli USA perchè ha venduto sistemi crittografici (macchine, non codici) a nazioni che agli USA non piacciono. Io questo non l'ho citato come "pratica scorretta" perchè lo reputo un caso di USA che fa il bulletto, Intel dovrebbe poter vendere a chi gli pare.

Cioè per dire che questo è il livello a cui si decide chi va spezzato e chi no.
Non frega un cazzo a nessuno di quello che pensa Intel o di cosa è giusto o logico secondo teorie economiche discutibili o anche secondo la morale comune o il buonsenso.
Ci sono poteri che hanno volontà e chi non si può opporre subisce, o paga pegno.

Credere che i sistemi legali funzionino tenendo conto della logica o della giustizia è un errore, bisogna lottare perche lo facciano, sennò in genere seguono i soldi o il potere.

Ma non sono mica le stesse DirectX: dov'è scritto che abbiano lo stesso overhead presente nei PC?Uhm, ti invito a leggere meglio. Quello è uno sviluppatore di giochi per 360, quindi le directx di cui parla sono le stesse in tutte le 360. Secondo te si mette a parlare di DX su PC? E perchè dice che con le sue API di controllo manuale il gioco andrebbe meglio ma non passerebbe mai il controllo di MS per andare su 360?

Ma in passato non se n'è mai parlato,Perchè tutto sommato il problema non era palese come adesso.

Vedere qui per risposta di AMD sul caso di Asscreed http://wccftech.com/ubisoft-points-finger-amd-technical-bugs-assassins-creed-unity/
"The game (in its current state) is issuing approximately 50,000 draw calls on the DirectX 11 API. Problem is, DX11 is only equipped to handle ~10,000 peak draw calls. "

Oh, un gioco che gira meglio sulle console spara solo 50k draw calls ad minchiam.

Visto che c'è concorrenza, se nVidia non l'ha implementato nelle sue schede, AMD avrebbe potuto farlo nelle sue e portarsi in posizione di vantaggio = tanti bei soldi (visto che è un mercato molto profittevole).Quindi entri in un dibattimento sulla grafica senza neanche sapere (o avere la premura di controllare in 5 secondi di Google) se Nvidia ha implementato o no OpenGL?

Ma lo hai visto il link di cui sopra dove NVIDIA, AMD, e Intel stanno dicendo che le OpenGL sono meglio?

Secondo te NVIDIA che ci faceva insieme agli altri due, aiutava la concorrenza?

E poi su linux che non ci sono DX che cosa cavolo usano per far funzionare le GPU NVIDIA secondo te? Magia elfica?

Nein. OpenGL. NVIDIA supporta Opengl

Quindi il framebuffer VESA è sufficiente, accoppiato a una scheda recente?Xorg e basta per il 2D, OpenGL per il 3D.
Tutte le interfacce avanzate richiedono OpenGL 2.0 o superiore (in genere). Ma parliamo che praticamente tutto a parte Unity gira anche sulla GMA3150 (complice il supporto a OpenGL 2.0 su linux per questa iGPU mentre su Windos no) del mio netbook.

Quindi anche in casi di ottimizzazione paurosamente scarsa (tipo i driver noveau, quelli open per NVIDIA) i desktop vanno benissimo lo stesso.

Le altre sono in rendering su CPU con leggera accelerazione 2D da Xorg come MATE, XFCE o LXDE.

Non capisco perchè la dicotomia Vulkan<---->VESA
c'è opengl, e c'è il software rendering, come c'è sempre stato.
Con le interfacce progettare per il software rendering sei anche parecchio veloce tra l'altro, non è come una interfaccia avanzata zoppa.

bobafetthotmail
23-06-2015, 11:32
La questione draw call la conosco. Non capisco perché però tutti credano che l'aumento del numero di chiamate permetterà di diminuire il tempo di calcolo di un frame. Come hai detto tu, il tempo reale di elaborazione la fa la GPU, e che la lista di comandi arrivi da DX11 o D12, sempre quelle istruzioni deve eseguire.Ferma, una draw call è un "disegnami questo" ma il "questo" ha dimensioni variabili.
Cioè puoi fare un programma che per mostrarti lo stesso oggetto 3D spara 450 draw call (il caso di Ubisoft) o magari solo 45.

In generale una GPU è capace di elaborare una draw call molto più rapidamente di quanto ci metta il processore a ricevere il messaggio "fatto!" e a mandargliene un'altra.
Motivo per cui in genere un aumento delle draw call è visto positivamente.

Per aggirare le limitazioni attuali mandano draw call più corpose, ma se mandi draw call troppo corpose si incastra tutto, e questo "troppo" dipende da vari fattori.

Qui una sequenza di slide per spiegare il concetto con grafici e tutto, fatto da NVIDIA e hostato sui loro server (chiamano "batch" una draw call perchè è vecchiotta) http://www.nvidia.com/docs/IO/8228/BatchBatchBatch.pdf

Basta vedere come è stato fatto per DX11 per rendersi conto che qualcosa non va. Su AMD fa 1/3 dei frame rispetto ad nvidia, e già qui qualcosa dovrebbe far storcere in naso. Vuol dire proprio aver usato le librerie DX11 nel peggiore dei modi.Uhm, si potrebbe anche dare un'occhiata a quello che deve fare a schermo però.

Star Swarm è un gioco dove grosse quantità di navettine in 3D decente si muovono costantemente in un mondo 3D e sparano e fanno cose senza zone diverse o caricamenti. http://store.steampowered.com/app/267130/
è uno stress test.

Ci sta che devono sparare migliaia di draw call. è stato progettato per usare Mantle, non è "poco ottimizzato" è fatto per richiedere risorse che le DX11 non gli danno.

é su Asscreed semmai che si può sparlare dicendo che non ha alcun senso sparare 50k draw call per l'ennesimo FPS dimmerda (vedi post sopra per il link).
No perchè puoi dare addosso finchè vuoi a Star Swarm ma se vuoi vedere i massimi capolavori del software fatto col culo devi guardare Ubisoft eh.

E una CPU decente non ha problemi a fornire abbastanza istruzioni alla GPU per tenerla occupata al 100%.Uhhhh.... non una GPU decente.

Quindi, boh, non ho capito ancora da dove verrà tutto questo guadagno dei frame se non nel vero sudore degli sviluppatori che con chiamate a più basso livello devono rifarsi "a manina" buona parte delle operazioni che le dX11 permettevano in maniera "diretta".Il grosso del guadagno lo avranno quelli che usano engine di terze parti.

D'altronde i giochi Mantle non è che mostrassero un raddoppio di frame.. la massimo si parlava del 20% in più nelle situazioni più disperate.Un conto è progettato per, un conto è "aggiunto dopo".

Sono comunque delle API, se chi scrive i programmi è una scimmia urlatrice come il caso di Ubisoft non serve a niente neanche la DX12 perchè la scimmia lascia tutto su un core solo (le DX12 PEREMTTONO di andare in multicore SE IL DEV DEL GIOCO VUOLE, se non vuole allora ciccia) o manda milleottocentocinquanta draw call per ogni singolo fottuto oggetto senza ragione apparente anche attaccarci il patacchino DX12 non lo fa andare meglio.

Nessuno si sbilancia?Se il gioco è stato fatto con un engine di terze parti che ovviamente viene tassativamente aggiornato alle DX12 appena possibile per ovvie ragioni è facile che aggiornino il gioco per sfruttarle, visto che loro hanno fatto un gioco "in scatola di montaggio" dove hanno messo gli oggetti, gli script, le mappe, ma il lavoro di rendering lo gestisce l'engine che non hanno fatto loro.

Sennò è improbabile che facciano dei gran lavori, diranno che "ora supporta DX12" ma non ci saranno aumenti di performance da capogiro perchè nessuno riscrive l'engine di un gioco già uscito così a caso.

Saranno interessanti i giochi NATIVI DX12 che non saranno retrocompatibili con DX11 (cioè nel senso che gireranno da cani con le DX11).

DX è una API, un linguaggio per comunicare con le GPU (semplificazione), DX12 è una lingua diversa, quindi se vuoi che un gioco la usi devi insegnarla al suo game engine (motore grafico del gioco).

Non esiste la ottimizzazione istantanea, solo negli scamware premi un bottone e il PC aumenta la velocità (qualsiasi cosa possa significare).

Con le DX12 o con Vulkan l'ottimizzazione sarà volta al riuscire ad usare le risorse disponibili, mentre con DX11 era più un come far girare qualcosa con risorse artificialmente limitate.

the_joe
23-06-2015, 11:51
crapadilegno quindi secondo te se AMD fallisse e fosse venduta ad uun prezzo di svalutazione, non essendo facile.come ho detto io che qualcuno la compri, sarà molto difficile come dici tu e quindi chiude direttamente senza essere comprata. ma dici vero o mi prendi per il culo?

A parte che il Know-how di AMD farebbe gola a molti, i termini della questione non si possono certo semplificare a questi livelli, potrebbe essere acquistata in toto, potrebbe più realisticamente essere oggetto di vendite separate dei vari reparti ecc. ecc. non è che una realtà come AMD sparisce dall'oggi al domani, quello che è certo è che competere in campo X86 è difficile, di tutti quelli che ci hanno provato a parte AMD non ne è rimasto nessuno...... e non vedo come la situazione possa cambiare rapidamente, e chi investe vuole anche un piano di rientro in tempi certi e non biblici, altrimenti i soldi li tiene in cassaforte e bon....

bobafetthotmail
23-06-2015, 13:53
Quindi mi chiedevo se fosse possibile modificare l'esecuzione delle vecchie funzioni anche per i giochi preesistenti, esempio eseguire la tesseletion esattamente come si eseguiva in DX10 ma sfruttando meglio i core.No.
DX9-11 è una API astratta, cioè che permette al programmatore di scrivere poco e male che tanto ci pensa lei a fare le cose (male ma meglio di quanto avrebbe fatto lui nel 90% dei casi, salvo programmatoris eri che vedono i limiti e si lamentano).

DX12 è ANCHE una API di basso livello (nel senso che se vuoi stare astratto come nelle DX11 puoi comunque farlo), ma le performance ci sono solo se appunto usi queste API di basso livello e ti sbatti non poco a far girare come vuoi tu le cose.

Hai presente la faccenda del poco overhead nelle console?
Dell'ottimizzazione e della vicinanza all'hardware?
(che ho il forte sospetto siano fuffa ma soprassediamo per un momento)

Questo PUO' avvenire anche su PC con le DX12 o su linux con Vulkan. Notare l'enfasi sul può.

Ma un game engine progettato per chiamare delle API astratte va riscritto se vuoi che usi veramente le DX12.

E quindi come ho detto quelli che usano game engine di terze parti ci guadagnano di brutto perchè ad esempio sono sicuro che l'engine Source di Valve o Unity saranno tirati a lucido come non mai in tempi relativamente rapidi, mentre i motori che i vari produttori si sono fatti loro in casa ovviamente sono da riscrivere per non girare uguale alle DX11 e questo costa una cifra che non so quanti vogliono spendere.

Esempio il Source 2 è già compatibile con Vulkan e dovrebbe essere gratis per sviluppatori (suppongo con restrizioni all'uso di Steam per la distribuzione).

Quindi fondamentalmente avremo che giochini Indie di case di produzione scarse o anche startup ma fatti con un engine serio potranno darle giù ad un gioco AAA fatto dai soliti sospetti anche a livello di grafica.

Che non è affatto male. :D

bobafetthotmail
23-06-2015, 14:56
A parte che il Know-how di AMD farebbe gola a molti, i termini della questione non si possono certo semplificare a questi livelli, potrebbe essere acquistata in toto, potrebbe più realisticamente essere oggetto di vendite separate dei vari reparti ecc. ecc. non è che una realtà come AMD sparisce dall'oggi al domani, quello che è certo è che competere in campo X86 è difficile, di tutti quelli che ci hanno provato a parte AMD non ne è rimasto nessuno...... e non vedo come la situazione possa cambiare rapidamente, e chi investe vuole anche un piano di rientro in tempi certi e non biblici, altrimenti i soldi li tiene in cassaforte e bon....é molto ma molto ma molto probabile che l'unico acquirente possibile per tutta la parte x86 possa essere solo Intel.

Anche perchè Intel non dà a nessuno la licenza x86 e non credo che inizi ora.
Con AMD si sono scambiati le figurine con Intel che dà la x86 e AMD che dà la amd64 per il 64 bit. Più varie altre non specificate perchè i contratti sono segreti.

Le parti ARM sono interessanti probabilmente per molti invece.

MaxFabio93
25-06-2015, 01:58
Di impossibile c'è ben poco, però non raccontiamoci che gli FX stanno al passo degli i7 perchè è una barzelletta.
Guardando dei bench seri gli FX hanno prestazioni parecchio inferiori se non in pochissimi test e comunque lo fanno consumando il doppio (se non consideriamo gli fx-9xxx se no diventa il triplo).
Restano sul mercato solo perchè costano anche la metà.

Diciamo che puoi farlo ma è come comprare un hummer per portare i bambini a scuola :asd:

Infatti anche AMD per quantum ha messo un i7 :doh:

Per me stanno al passo eccome, io posso fare quello che fa qualcunque altro utente che possiede un Intel Core i7 perchè dovrei dire il contrario? Posso solo accettare quando qualcuno dice che ci sono delle differenze, che riconosco. Ma perchè me ne dovrebbe fregare qualcosa dei risultati dei benchmark (che tra l'altro in passato sono stati anche falsati a favore dei soliti noti) se posso giocare giocare tranquillamente a dettagli alti senza problemi?

Quello che mi da fastidio sono i soliti che spalano ogni genere di fango contro AMD e i suoi prodotti che vengono considerati peggio di spazzatura oppure inferiori, certo che poi si spiegano i problemi economici...ci sono imbecilli che ci credono, che poi nonostante i problemi non solo l'unico che usa i suoi processori per giocare e lo fa molto bene se no sarebbe già fallita. ;)

Nono, spiegato male.
per "fuori dai giochi" intendevo che non sono competitivi nella cosa che ho detto poco prima, cioè nei processori ad alte performance.

Nel gaming senza troppe pretese o pippe mentali che dirsivoglia vanno benissimo. è quando vai oltre i 6 core che cominci a chiederti perchè lo hai fatto.

Ma guarda il mio FX8350 non ha nulla da invidiare ad un i7 che ovviamente e giustamente è un processore ad alte prestazioni, io gioco, uso programmi di grafica tranquillamente e senza problemi, anche un i7 lo fa ;)

bobafetthotmail
25-06-2015, 15:55
Ma guarda il mio FX8350 non ha nulla da invidiare ad un i7 che ovviamente e giustamente è un processore ad alte prestazioni, io gioco, uso programmi di grafica tranquillamente e senza problemi, anche un i7 lo fa ;)Io sto dicendo performance, non home workstation.

Parlo di workstation aziendali con Xeon da 500+ euro, un FX 8 core gli fa una pippa anche in OC.

Poi comunque anche io parteggio per AMD, ma che le stiano prendendo negli ambiti che contano è un fatto.

MaxFabio93
26-06-2015, 02:04
Forse non ti sembrerà dal ultimo mio post ma sono più simpatizzante AMD che Intel, però bisogna restare con i piedi per terra.
Non metto in discussione che quello che fai con un i7 lo fai anche con un FX, ma non si può dire che sono alla pari.

Prima di tutto un i7 consuma parecchio di meno e se dovessi farmi un pc compatto con un case piccolo questo è un particolare fondamentale.
Ci giochi tranquillamente si, anche io posso andare a lavorare tranquillamente sia con una panda che con una ferrari ma non sono certo la stessa cosa.
Mi sta anche bene che gli 8 core di un FX-8xxx potrebbero essere sfruttati meglio, ma di fatto non lo sono e quindi non torna utile a nessuno il "potrebbe"

Hai ragionissima che si può farsi un buon pc anche per giocare e fare lavori pesanti con un FX-8350 e si spende anche meno, ma non diciamo che sono allo stesso livello però.

Beh...così è un'altro discorso e ti do ragione, anche io riconosco le differenze, e' ovvio che non sono allo stesso livello, anche se per me lo potrebberò benissimo essere...volevo sottolineare il fatto che molti non fanno questi ragionamenti come il tuo che sono molto razionali, si fermano solo ai benchmark e gridano allo scandalo parlando di prodotti da buttare nella spazzatura :) Parlando di consumi nel caso di un PC compatto io andrei decisamente sulle APU che specialmente nella grafica non ha rivali in quell'ambito, non metterei mai un FX ovviamente ;)

Io sto dicendo performance, non home workstation.

Parlo di workstation aziendali con Xeon da 500+ euro, un FX 8 core gli fa una pippa anche in OC.

Poi comunque anche io parteggio per AMD, ma che le stiano prendendo negli ambiti che contano è un fatto.

Ah...certo...ad uno Xeon sicuramente, non avevo capito ;) Che le stiano prendendo, si certo ma bisogna anche vedere tutti i perchè, e non è a causa delle performance, c'è la pubblicità, il nome, il marchio, la storia e sopratutto (e questo conta molto) le voci che girano da sempre o quasi su AMD ;)

bobafetthotmail
26-06-2015, 07:08
Che le stiano prendendo, si certo ma bisogna anche vedere tutti i perchè, e non è a causa delle performance, c'è la pubblicità, il nome, il marchio, la storia e sopratutto (e questo conta molto) le voci che girano da sempre o quasi su AMD ;)Concordo. L'ho detto anche altrove che per il mercato consumer (PC scrausi da supermercato venduti a prezzi assurdi) le APU sono molto meglio di un processore Intel.

Ma nessuno le usa. Tutti celeron e pentium merdacchiosi.

Il punto è che gli ambiti dove si fa più grano sono il server e l'aziendale, e AMD è fuori da entrambi da tempo.

Spero tanto che con zen si veda qualcosa di nuovo, comunque nel frattempo Intel fa di tutto per farsi concorrenza da sola e darsi la zappa sui piedi, quindi diciamo che la situazione per un altro magico recupero di AMD c'è.

cdimauro
29-06-2015, 21:52
Ahaahahah... come sospettavo, hai seri problemi a comprendere le cose... ironia, questa sconosciuta.
Forse ti capisci solo tu, perché da come hai scritto l'ironia di cui parli non si nota affatto. Potevi anche mettere un paio di virgolette o qualche faccina, ma non c'è nulla che possa far intendere nulla di diverso dalla tua solita battutina acida nei confronti di Intel.

cdimauro
29-06-2015, 21:54
Il calo c'è stata da quando i tablet hanno cominciato a diventare interessanti. Tablet è smartphone a dire il vero.
E, a differenza di 10 anni fa, è anche vero che oggi un PC è capace di essere un po' più longevo (sarà anche per questo che oggi sui notebook trovi quasi esclusivamente processori Intel a basso consumo, mentre un tempo trovavi processori standard da 35W? Per ridurre la longevità?), e quindi buona parte della gente che ha comprato un Core2 può vivere felice per parecchi anni.
Ma "stranamente" c'è stato un enorme e costante calo quando i tablet sono apparsi. E altrettanto stranamente il calo delle vendite di PC s'è assestato quando anche quello dei tablet è calato. ;)

cdimauro
29-06-2015, 22:43
Cosa dimostri scusa?
Quanto già scritto prima, incluso la precedente risposta a calabar.
Se parte un giro di vite sul mercato desktop (o sul mercato server dove è al 99.99%) puoi portare tutte le prove che vuoi sui tablet, ti fanno pat pat sulla testa e basta.

Ma anche se fosse un "monopolio su tutto il mercato consumer non meglio definito" come dici tu.. Oh, c'è gente che ci sono prove che ha mandato terzi a dare suoi soldi come bustarelle a gente che li ha presi, i terzi che hanno dato i soldi sono in galera, e se la cava con boh non si sa bene cosa.

Il mondo legale a questi livelli assomiglia veramente tanto alle "leggi" e ai "decreti" medievali, con gente che dice che quelli che fanno dispositivi rettangolari con spigoli tondi li devono pagare e cose del genere, ovviamente si aggiusta sempre tutto scambiandosi soldi a tarallucci e vino e quasi mai per vie legali.
L'antitrust non ha carta bianca: ha dei precisi limiti operativi, e non può fare di testa sua. Questo è il nocciolo della questione.
Mio nonno. Windows 8 non era compatibile con le app winphone.
Cioè ufficialmente sì grazie a WinRT ma nella realtà no.

Se in Win10 fanno lo stesso errore poi rido quando la gente resta su 7 e XP fino al 2020 inoltrato.
E qual è la differenza? Le app che giravano su Windows RT erano universali, perché non legate a x86. Con Windows 10 e le nuove app universali sarà lo stesso, con la differenza che ormai Windows RT è morto...
Lo sai vero che c'è una ampia categoria di app offline? https://chrome.google.com/webstore/category/collection/offline_enabled
client di posta, word editor, excel editor di googol, video, foto, giochini...

QUeste sono le app progettate per ChromeOS ma vanno ovunque ci sia Chrome.
Non parlavo di app offline, che rimangono applicazioni web. Offline non è sinonimo di desktop.
Inoltre, quel framework che hai citato permette di fare app universali per tutte le piattaforme, non c'entra il web.
Veramente WebAssembly è proprio basato sul web.
La storia è la stessa sai, i celeron che vendono ora non verranno sostituiti (i prodotti con i celeron) per lungo tempo per la stessa ragione dei desktop (non cè alcuna ragione oggettiva per farlo). Solo che adesso stanno espandendosi, quindi vendono decentemente.
Rimane il fatto che il dato in questione parla in generale di Desktop e non esclusivamente dei Celeron. Se hai dati concreti che dimostrino che il calo dei desktop è in realtà legato soltanto a quello dei Celeron, non hai che da riportarli.
è inutile che tu sia così categorico, a livello legale si può fare tutto e il contrario di tutto, basta pagare.
Questo è qualunquismo spicciolo.
La teoria del mercato che si autoregola è senza senso nell'economia come nella biologia. Il sistema si auto-regola ma ha dei limiti ben precisi, oltrepassati i quali le specie si estinguono.
https://en.wikipedia.org/wiki/Extinction
Da quando la vita è nata in questo pianeta, nemmeno si ha idea di quante specie siano esistite e si siano estinte. Questo perché il nostro ambiente è dinamico, e dunque è perfettamente naturale e scontato che ci siano delle specie che, a fronte di cambiamenti dell'ecosistema, non sia più in grado di sopravvivere. Viceversa, ce ne saranno o ce ne sono altre in grado di farlo.

La teoria della selezione naturale non me la sono certa inventata io.
Tanto per cambiare la verità sta nel mezzo, non controllo totale dello stato, non lazzes faire da parte dello stato.
In uno stato di diritto si fissano dei ragionevoli paletti e si lascia che il sistema proceda all'interno dei loro confini.
:asd: mi fai scompisciare.
A chi lo dici... (https://www.google.de/search?q=windows+8+hurts+pc+sales&client=opera&oe=utf-8&channel=suggest&gws_rd=ssl&oq=windows+8+hurts+pc+sales&gs_l=heirloom-serp.3..0i30.12097.13320.0.13751.6.6.0.0.0.0.309.566.0j2j0j1.3.0....0...1ac.1.34.heirloom-serp..5.1.143.RdoasJajoPw)
L'hai visto o no che c'è tanta ma tanta gente che usa ancora PC con socket 775 o equivalenti AMD senza particolari problemi?

Secondo te 10 anni fa era una cosa normale che della gente usasse ancora macchine di 7-8 anche 9 anni prima?

Che della gente rimanesse su un OS uscito 10 anni prima?

Non si è ammodernata na sega, un PC qualsiasi con su Vista o successivi va benissimo e continuerà ad andare benissimo per i prossimi secoli se non muovete il didietro e fate processori più potenti.

Tutto il settore consumer sta andando a donnine perchè non riuscite a fare macchine più potenti, lo capisci?
Ne abbiamo già discusso, e sto ancora aspettando che qualche genio della lampada tiri fuori un'idea rivoluzionaria per aumentare nettamente le prestazioni dei processori.

Nel frattempo mi permetto d'invecchiare. :asd:
E poi mi dici che è colpa delle padelle e dei tablet se non vendono PC? Ma a me pareva che le vendite fossero in caduta libera anche prima eh. Il fenomeno è stato esacerbato dal mobile, ma era comunque causato dalla mancanza di aumenti prestazionali rilevanti.
Esacerbato? Le vendite dei PC sono crollate con l'aumento dei tablet, e si sono livellate quando anche quelle dei tablet lo sono state.

Comunque il fatto che parli di esacerbare implica un'accettazione di ciò, e dunque della sovrapposizione di tablet e PC che si contendono lo stesso mercato.
Nessuno di noi due è una azienda che vende cose, quindi la dipartita di uno o entrambi non solleverebbe nessuna obiezione.

Se si parla di aziende che vendono cose la situazione cambia.
Non vedo perché, visto che sulla carta dovremmo trovarci in uno stato di diritto. Ma ne parlo meglio dopo.
In una condizione di monopolio i prezzi salgono senza ragione (un pò come è successo dal 2013 in poi per i processori intel :rolleyes:), e a chi ha il potere (ma un pò a tutti) questo non sta bene.

Poi ci aggiungono anche la faccenda che senza competizione non c'è innovazione (basta guardare Windows o Mac, fortissime cataclismiche innovazioni negli ultimi 7-8 anni), di nuovo perchè fa comodo a chi ha il potere, mica a te.

I sistemi legali e gli stati esistono fondamentalmente per imporrre decisioni su terzi più deboli di tali stati, per costringerli a fare l'interesse dello stato/popolazione andando contro ai suoi interessi.

Cioè hai presente le tasse? Pagare dei soldi a caso non è contro gli interessi dell'azienda? Ma lo stato le costringe a farlo (poi c'è chi fa il furbo in modi più o meno legali).

Recentemente Intel le sta prendendo dagli USA perchè ha venduto sistemi crittografici (macchine, non codici) a nazioni che agli USA non piacciono. Io questo non l'ho citato come "pratica scorretta" perchè lo reputo un caso di USA che fa il bulletto, Intel dovrebbe poter vendere a chi gli pare.

Cioè per dire che questo è il livello a cui si decide chi va spezzato e chi no.
Non frega un cazzo a nessuno di quello che pensa Intel o di cosa è giusto o logico secondo teorie economiche discutibili o anche secondo la morale comune o il buonsenso.
Ci sono poteri che hanno volontà e chi non si può opporre subisce, o paga pegno.

Credere che i sistemi legali funzionino tenendo conto della logica o della giustizia è un errore, bisogna lottare perche lo facciano, sennò in genere seguono i soldi o il potere.
Tutto ciò deve comunque avere una base giuridica, perché altrimenti non avrebbe potere esecutivo. Difatti se esiste un elenco di stati canaglia, è perché esistono anche dei criteri per definirli tali. Tanto per fare un altro esempio.

Allo stesso modo, l'autorità antitrust non si muove di moto proprio, ma all'interno di ciò che il legislatore ha stabilito che debba fare.

L'esercizio del potere senza limiti si chiama, infatti, dittatura.

Ma non è questo il caso.

E non mi risulta nemmeno che se un'azienda abbia operato correttamente in un determinato mercato, nel momento in cui dovesse venire a mancare il suo concorrente per cause non sue, debba essere lei a doverne pagare lo scotto.

Non c'è nessuna razionalità in questa presa di posizione. A maggior ragione perché esistono altre soluzioni (e licenziatari di IA-32, nello specifico) alla problematica in questione.
Uhm, ti invito a leggere meglio. Quello è uno sviluppatore di giochi per 360, quindi le directx di cui parla sono le stesse in tutte le 360. Secondo te si mette a parlare di DX su PC?
E questo che c'entra con quello che avevo scritto? Lo riporto nuovamente:

"dov'è scritto che abbiano lo stesso overhead presente nei PC?"

Ma sotto ne parlo meglio, perché c'è la dimostrazione che, infatti, non è così.
E perchè dice che con le sue API di controllo manuale il gioco andrebbe meglio ma non passerebbe mai il controllo di MS per andare su 360?
Perché vuol dire che il codice debba avere dei ben precisi requisiti.

Ma questo nulla ha a che vedere con l'overhead, di cui si discuteva. E' un discorso completamente diverso.
Perchè tutto sommato il problema non era palese come adesso.

Vedere qui per risposta di AMD sul caso di Asscreed http://wccftech.com/ubisoft-points-finger-amd-technical-bugs-assassins-creed-unity/
"The game (in its current state) is issuing approximately 50,000 draw calls on the DirectX 11 API. Problem is, DX11 is only equipped to handle ~10,000 peak draw calls. "

Oh, un gioco che gira meglio sulle console spara solo 50k draw calls ad minchiam.
Bravo, hai tagliato la parte più interessante e che smentisce quello che hai sostenuto finora:

"On the other hand, consoles have to-the-metal access and almost non-existent API Overhead"

Quanta onestà intellettuale...
Quindi entri in un dibattimento sulla grafica senza neanche sapere (o avere la premura di controllare in 5 secondi di Google) se Nvidia ha implementato o no OpenGL?
Scusami, quand'è che avresti scoperto che non ne fossi a conoscenza? Quotami pure.
Ma lo hai visto il link di cui sopra dove NVIDIA, AMD, e Intel stanno dicendo che le OpenGL sono meglio?
Il link di cui sopra parla di Assassin Creed...
Secondo te NVIDIA che ci faceva insieme agli altri due, aiutava la concorrenza?

E poi su linux che non ci sono DX che cosa cavolo usano per far funzionare le GPU NVIDIA secondo te? Magia elfica?

Nein. OpenGL. NVIDIA supporta Opengl
Ma va! Quando poi ti prenderai la briga di rileggere meglio quello che ho scritto, magari capirai che non mi sono mai nemmeno sognato di affermare il contrario. Stavo parlando d'altro. Ma evidentemente la foga di rispondere ti ha fatto perdere il bandolo della matassa...
Xorg e basta per il 2D, OpenGL per il 3D.
Tutte le interfacce avanzate richiedono OpenGL 2.0 o superiore (in genere). Ma parliamo che praticamente tutto a parte Unity gira anche sulla GMA3150 (complice il supporto a OpenGL 2.0 su linux per questa iGPU mentre su Windos no) del mio netbook.

Quindi anche in casi di ottimizzazione paurosamente scarsa (tipo i driver noveau, quelli open per NVIDIA) i desktop vanno benissimo lo stesso.

Le altre sono in rendering su CPU con leggera accelerazione 2D da Xorg come MATE, XFCE o LXDE.

Non capisco perchè la dicotomia Vulkan<---->VESA
c'è opengl, e c'è il software rendering, come c'è sempre stato.
Con le interfacce progettare per il software rendering sei anche parecchio veloce tra l'altro, non è come una interfaccia avanzata zoppa.
E allora è inutile buttare risorse nella scrittura di driver accelerati per Linux: basta il rendering software per tutto e amen. Tanto le finestre di Compiz sballonzolano lo stesso anche così...

cdimauro
29-06-2015, 22:46
é molto ma molto ma molto probabile che l'unico acquirente possibile per tutta la parte x86 possa essere solo Intel.
Certo, Intel dovrebbe acquistare ciò che possiede già. Geniale. :asd:

cdimauro
29-06-2015, 22:57
Beh...così è un'altro discorso e ti do ragione, anche io riconosco le differenze, e' ovvio che non sono allo stesso livello, anche se per me lo potrebberò benissimo essere...volevo sottolineare il fatto che molti non fanno questi ragionamenti come il tuo che sono molto razionali, si fermano solo ai benchmark e gridano allo scandalo parlando di prodotti da buttare nella spazzatura :)
Potresti spiegarmi allora come mai AMD abbia deciso di mettere un i7 per la SUA piattaforma Quantum?
Parlando di consumi nel caso di un PC compatto io andrei decisamente sulle APU che specialmente nella grafica non ha rivali in quell'ambito, non metterei mai un FX ovviamente ;)
Parlando di consumi, mediamente i processori Intel consumano meno.

Parlando di grafica, invece, il discorso è troppo generale. In che ambito? Non mi venire a parlare di giochi, perché un'APU è poco indicata allo scopo.

Le APU hanno il difetto di non essere buone per il general computing, a causa delle scarse prestazioni del processore, e non sono nemmeno buone per il gaming, dove servono ben altre GPU (a meno che non ci si debba accontentare. E pure molto).

Un chip Intel risulta, invece, molto più equilibrato, visto che possiede un buon processore che si può sfruttare molto meglio in generale. La GPU è più scarsa, ma nessuno compra un sistema come questo espressamente per giocare. Però nel caso in cui volesse farlo, un'economica scheda video sarebbe decisamente meglio della GPU integrata in un'APU, visto che potrebbe contare anche su un processore ben più potente allo scopo.

bobafetthotmail
30-06-2015, 16:36
Quanto già scritto prima, incluso la precedente risposta a calabar.Domanda retorica, significato reale : non stai dimostrando nulla.

L'antitrust non ha carta bianca: ha dei precisi limiti operativi, e non può fare di testa sua. Questo è il nocciolo della questione.Trovami un documento ufficiale che dice che la concorrenza ad Intel va contata in generale e non in particolare.

E qual è la differenza?Che su win8 non sono veramente universali ma richiedono sbattimento. http://www.theregister.co.uk/2014/04/04/windows_unified_apps/

Non parlavo di app offline, che rimangono applicazioni web. Offline non è sinonimo di desktop.Offline è sinonimo di girano in locale quindi puoi farci quello che vuoi anche senza connessione, come tutte le applicazioni normali.

Veramente WebAssembly è proprio basato sul web.Mi riferivo a quelli che hai detto che hanno fatto quel runtime che era più rapido di Dalvik.
Loro hanno fatto un framework che permette alle app fatte con tale framework di essere universali.

Rimane il fatto che il dato in questione parla in generale di Desktop e non esclusivamente dei Celeron. Se hai dati concreti che dimostrino che il calo dei desktop è in realtà legato soltanto a quello dei Celeron, non hai che da riportarli.Io l'ho portato come esempio del fatto che le macchine x86 al momento invecchiano molto bene, quindi che le vendite attuali di celeron eni chromebook non dureranno.

Questo è qualunquismo spicciolo.No, basta vedere come vanno certi processi di persone/aziende con tanto cash. Anche in USA.

La teoria della selezione naturale non me la sono certa inventata io.No, ma se dici cazzate come "il sistema si autoregola" devo correggerti, perchè così non è.

In uno stato di diritto si fissano dei ragionevoli paletti e si lascia che il sistema proceda all'interno dei loro confini.I ragionevoli paletti sono appunto che non è il caso.

A chi lo dici... (https://www.google.de/search?q=windows+8+hurts+pc+sales&client=opera&oe=utf-8&channel=suggest&gws_rd=ssl&oq=windows+8+hurts+pc+sales&gs_l=heirloom-serp.3..0i30.12097.13320.0.13751.6.6.0.0.0.0.309.566.0j2j0j1.3.0....0...1ac.1.34.heirloom-serp..5.1.143.RdoasJajoPw)Le vendite erano in calo anche prima, quello ha solo peggiorato la situazione di stallo.

Ne abbiamo già discusso, e sto ancora aspettando che qualche genio della lampada tiri fuori un'idea rivoluzionaria per aumentare nettamente le prestazioni dei processori.Non ti bastano quelle che ho detto nell'altro thread?

Guarda che o vai massivamente multicore e fai in modo di parallelizzare i carichi in modo decente anche per una CPU o stigrancazzi. La fisica non la freghi.

Esacerbato? Le vendite dei PC sono crollate con l'aumento dei tablet, e si sono livellate quando anche quelle dei tablet lo sono state.Non so che cosa vedi tu, ma io vedo che i PC hanno un andamento che non centra una sega con quello dei tablet.
http://www.extremetech.com/wp-content/uploads/2014/07/gartner-2014-2015-pc-tablet-sales-figures-prediction1-640x233.png
www.extremetech.com/computing/185937-in-2015-tablet-sales-will-finally-surpass-pcs-fulfilling-steve-jobs-post-pc-prophecy

Cioè un aumento delle vendite di 100'000 tablet in 3 anni mentre le vendite PC totali sono fondamentalmente stazionarie.

Proprio un "crollo", seguito da un "livellarsi" insieme ai tablet.

-non c'è nessun crollo ma una decrescita lenta
-i tablet sono in crescita

Comunque il fatto che parli di esacerbare implica un'accettazione di ciò, e dunque della sovrapposizione di tablet e PC che si contendono lo stesso mercatoIo ho detto che se li contiamo come mercato unico sì, se contiamo solo l'ambito desktop, o solo l'ambito server (gomitatina amichevole) dove il mercato consumer non frega una mazza....

Il punto che non hai ben compreso è che non c'è nulla di ufficiale che dica come debba essere valutata la situazione di monopolio. Perchè se dicono "monopolio in ambito PC" fai fatica a scappare anche ora.

Non vedo perché, visto che sulla carta dovremmo trovarci in uno stato di diritto. Ma ne parlo meglio dopo.Lo conosci vero il concetto di socialismo?
Lo stato in teoria esiste per tutelare i cittadini, se deve scegliere se tutelare 4 gatti di una azienda o tutti i consumatori secondo te quale è la scelta che viene fatta?

Esatto, l'azienda paga una mazzettina e lo stato fa finta di niente. :asd:

Tutto ciò deve comunque avere una base giuridica, perché altrimenti non avrebbe potere esecutivo. ??? Il potere legislativo (la cosa su cui si forma la base giuridica) è arbitrario. lo è sempre stato.
Se decidono che si fa così, si fa così.

E non mi risulta nemmeno che se un'azienda abbia operato correttamente in un determinato mercato, nel momento in cui dovesse venire a mancare il suo concorrente per cause non sue, debba essere lei a doverne pagare lo scotto.Il monopolio è stato dichiarato illegale da lungo tempo, se Intel non fa nulla per impedire di trovarsi in una situazione di palese illegalità è un suo problema.

Come per uno che ha una azienda che deve attenersi ai criteri di sicurezza antincendio. se un branco di deficienti entrano spaccano idranti e svellono le porte tagliafuoco (ellamadonna), l'azienda deve tirare fuori il cash e sistemare a spese sue, non esiste che dice "ma che c'entro io?".

Non c'è nessuna razionalità in questa presa di posizione. A maggior ragione perché esistono altre soluzioni (e licenziatari di IA-32, nello specifico) alla problematica in questione.Sì vabbè. Tanto vale dire che finchè c'è ancora VIA c'è concorrenza. :mc: :mc: :mc:

"dov'è scritto che abbiano lo stesso overhead presente nei PC?"Essendo closed source mi riesce difficile dirlo.
Ma ci arrivo dal fianco.
Intanto ti dimostro che c'è un overhead non indifferente, visto che se un tizio è riuscito a fare di meglio tutto solo soletto (o anche con un team di sviluppo di un gioco)... l'ottimizzazione tanto vantata e il "zero overhhead"... dov'è?

Ma questo nulla ha a che vedere con l'overhead, di cui si discuteva. E' un discorso completamente diverso.Adesso mi spieghi perchè o linki documentazione.
Sono buono anche io di dire "no è totlament diverso".

Bravo, hai tagliato la parte più interessante e che smentisce quello che hai sostenuto finora:
"On the other hand, consoles have to-the-metal access and almost non-existent API Overhead"
Quanta onestà intellettuale...Che ne sai che con "to-the-metal access and almost non-existent API Overhead" in realtà stiano parlando del fatto che le DX girano in realtà in multicore?

Ma va! Quando poi ti prenderai la briga di rileggere meglio quello che ho scritto, magari capirai che non mi sono mai nemmeno sognato di affermare il contrario. Stavo parlando d'altro. Ma evidentemente la foga di rispondere ti ha fatto perdere il bandolo della matassa...

E allora è inutile buttare risorse nella scrittura di driver accelerati per Linux: basta il rendering software per tutto e amen. Tanto le finestre di Compiz sballonzolano lo stesso anche così...[/QUOTE]

Scusami, quand'è che avresti scoperto che non ne fossi a conoscenza? Quotami pure.Io dissi "Perchè fare fatica? Tanto OpenGL o DX sempre le loro schede devi comprare. "
Risposta tua: "Visto che c'è concorrenza, se nVidia non l'ha implementato nelle sue schede, AMD avrebbe potuto farlo nelle sue e portarsi in posizione di vantaggio = tanti bei soldi (visto che è un mercato molto profittevole)."

Oh, non ti stavo chiedendo un esempio teorico totalmente scollegato dalla realtà che illustrasse come in un ipotetica situazione in cui NVIDIA fosse stata assalita dai criceti-vampiro e lasciasse il fianco orribilmente scoperto sul suo dannato core businness allora AMD potrebbe con grande sforzo mentale decidere di sfruttarlo per guadagnarci.

Intel, AMD, NVIDIA implementano tutti e tre sia OpenGL che DX da sempre.

Quindi ho interpretato come "senza senso" e la storia non aiuta visto che anche in altri thread hai tirato fuori la strana idea che in un driver opensource per linux dovrebbero infilarci gli algoritmi degli shader delle DX quando le DX esistono solo su windows.

Il link di cui sopra parla di Assassin Creed...Di cui più sopra allora.
"OpenGL l'ho sempre sentito più collegato al computing che ad altro, ma abbiamo qui NVIDIA, AMD e Intel in seduta congiunta che dicono cose..
http://blogs.nvidia.com/blog/2014/03/20/opengl-gdc2014/ "
C'è in un mio post poco prima, stessa pagina. Usare la funzione cerca del browser?

Ma va! Quando poi ti prenderai la briga di rileggere meglio quello che ho scritto, magari capirai che non mi sono mai nemmeno sognato di affermare il contrario.
Le cose che hai detto sono poco chiare.
"Quindi il framebuffer VESA è sufficiente, accoppiato a una scheda recente?"
mi faceva molto pensare che non avessi idea dell'esistenza e capillarità di OpenGL su Linux, dove fa la stessa cosa che DX fa su windows.

E allora è inutile buttare risorse nella scrittura di driver accelerati per Linux: basta il rendering software per tutto e amen. Tanto le finestre di Compiz sballonzolano lo stesso anche così...I driver accelerati per linux non li fanno perchè vogliono farci girare Compiz.

Compiz gira da sempre anche con schede modestissime.

Cristo è una interfaccia grafica, non è realtà virtuale.

Certo, Intel dovrebbe acquistare ciò che possiede già. Geniale.Lo sai vero che con la notazione x86 da un pò (tanto) di tempo si intende in realtà la x86_64.

Se volevo dire 32 bit mettevo i686 che è il top di quello che erano riusciti a fare.

Intel non ha le licenze per fare i processori x86 a 64 bit, sempre che non resusciti Itanium.

Per ora le usa per via di accordi bilaterali dove si scambiano le figurine con AMD, ma in caso AMD fallisca gli accordi saltano (ovviamente).

Quindi sì, in caso AMD fallisca le licenze amd64 gli fanno gola.

Poi ti arrabbi se dico che non sai di cosa parli eh. Oh, per uno che lavora alla Intel non mi sembri così ferrato sulle basi. Ma è anche vero che il grosso della forza lavoro Intel non sa una mazza di processori.

Le APU hanno il difetto di non essere buone per il general computing, a causa delle scarse prestazioni del processore, e non sono nemmeno buone per il gaming, dove servono ben altre GPU (a meno che non ci si debba accontentare. E pure molto).Le APU vanno benissimo per il grosso del mercato PC, esattamente come i processori Intel moderni dal Pentium in giù. Il grosso del mercato PC sta benissimo anche con un CoreDuo e una integrata coeva, basta che gli metti un SSD.

Che siano "scarse" è un problema solo per una workstation o per un PC gaming, dove AMD "compete" con prodotti del 2012 o dei rebrand della stessa roba.

Un chip Intel risulta, invece, molto più equilibrato, visto che possiede un buon processore che si può sfruttare molto meglio in generale. La GPU è più scarsa, ma nessuno compra un sistema come questo espressamente per giocare.Fai meno sviolinate. Intel è partita con delle grafiche integrate che facevano pena e sta aumentando sempre di più fino a rivaleggiare con le 650m, mentre AMD produce anche schede video quindi fanno dei gran copia-incolla dai progetti delle dedicate entry level.

MaxFabio93
30-06-2015, 21:23
Potresti spiegarmi allora come mai AMD abbia deciso di mettere un i7 per la SUA piattaforma Quantum?

Certo: http://hexus.net/tech/news/systems/84236-amd-explains-put-intel-inside-project-quantum-pc/ ;)

Sicuramente da l'anno prossimo cambierà tutto con la presentazione delle nuove CPU Zen da parte di AMD. ;)

Parlando di consumi, mediamente i processori Intel consumano meno.

Parlando di grafica, invece, il discorso è troppo generale. In che ambito? Non mi venire a parlare di giochi, perché un'APU è poco indicata allo scopo.

Le APU hanno il difetto di non essere buone per il general computing, a causa delle scarse prestazioni del processore, e non sono nemmeno buone per il gaming, dove servono ben altre GPU (a meno che non ci si debba accontentare. E pure molto).

Un chip Intel risulta, invece, molto più equilibrato, visto che possiede un buon processore che si può sfruttare molto meglio in generale. La GPU è più scarsa, ma nessuno compra un sistema come questo espressamente per giocare. Però nel caso in cui volesse farlo, un'economica scheda video sarebbe decisamente meglio della GPU integrata in un'APU, visto che potrebbe contare anche su un processore ben più potente allo scopo.

I PC compatti non sono fatti per giocare, lo sanno anche i sassi, sia che siano con chipset Intel o AMD, anche se non è esatto quello che dici...molte APU lo permettono rinunciando a qualcosina di poco conto, basta vedersi un video qualsiasi su YouTube.

Un chip Intel può essere equilibrato dalla parte CPU ma quella grafica fa proprio ridere...puoi farci veramente poco.

cdimauro
30-06-2015, 23:27
Domanda retorica, significato reale : non stai dimostrando nulla.
Mi basta che a esser d'accordo con me siano le agenzie specializzate in materia, e i professionisti di cui tu stesso riporti i link. Ma ne parlo meglio dopo.
Trovami un documento ufficiale che dice che la concorrenza ad Intel va contata in generale e non in particolare.
Ciò che conta è la definizione di mercato rilevante, come emerge da un apposito documento del dipartimento di giustizia americano (=http://www.justice.gov/atr/public/international/286279.pdf).

Nello specifico, sarà sufficiente dimostrare che il mercato rilevante è quello costituito da PC e tablet. E la dimostrazione è banale, perché l'hai fornita anche tu con quel link di ExtremeTech che hai riportato. Ne parlo dopo, come già detto.
Che su win8 non sono veramente universali ma richiedono sbattimento. http://www.theregister.co.uk/2014/04/04/windows_unified_apps/
Per il layout sì, ma per le architetture no, ed era a quello che mi riferivo. Come, peraltro, sarebbe dovuto esser ovvio, visto che parlavo di Windows RT che è notoriamente l'unica versione di Windows per tablet dotata di processore ARM anziché x86, e che è stata uccida da Microsoft (vedi anche l'ultimissima notizia pubblicato proprio oggi in questo sito).
Offline è sinonimo di girano in locale quindi puoi farci quello che vuoi anche senza connessione, come tutte le applicazioni normali.
Ma, come già detto, non è sinonimo di desktop. Perché si possono realizzare delle applicazioni web che girino in locale, come dovresti sapere...
Mi riferivo a quelli che hai detto che hanno fatto quel runtime che era più rapido di Dalvik.
Loro hanno fatto un framework che permette alle app fatte con tale framework di essere universali.
Sì, ma non nasce per il web. E non è nemmeno il primo (vedi Unity, ad esempio).
Io l'ho portato come esempio del fatto che le macchine x86 al momento invecchiano molto bene, quindi che le vendite attuali di celeron eni chromebook non dureranno.
Se le macchine x86 invecchiano bene, vale per qualunque membro della famiglia, e gli effetti ricadono su tutti i mercati e le tipologie di processori adottati.

A meno che, come già detto, non hai dei dati che dimostrino il calo dei profitti di Intel sia dovuto ai Celeron. Ma "stranamente" continui a non portare nulla, mentre in altri casi ti prodighi portando almeno qualche link. Chissà perché...
No, basta vedere come vanno certi processi di persone/aziende con tanto cash. Anche in USA.
E infatti si vede come Intel non sia stata condannata dall'antitrust, vero? Eppure aveva tanti bei soldoni coi quali, parole tue:

"a livello legale si può fare tutto e il contrario di tutto, basta pagare"

O vogliamo tirare in ballo Bernard Madoff (https://en.wikipedia.org/wiki/Bernard_Madoff), che ha truffato MILIARDI DI DOLLARI ai propri clienti, e che deve scontare una pena per 150 anni. "Poverino", non aveva i soldi per uscirsene pulito...

Per cui, permettimi, ma mi riquoto:

"Questo è qualunquismo spicciolo."
No, ma se dici cazzate come "il sistema si autoregola" devo correggerti, perchè così non è.
Ah, no? E come credi che ci siamo arrivati allo stato attuale? Per opera dello spirito santo? :asd:
I ragionevoli paletti sono appunto che non è il caso.
I casi che delineano i paletti in questione sono riportati nel documento di cui ho fornito il link all'inizio.
Le vendite erano in calo anche prima, quello ha solo peggiorato la situazione di stallo.
Quindi mi stai dando ragione: Windows 8 ha contribuito al calo. Quanto al calo delle vendite, è originata dai tablet, come già detto e come tu stesso hai confermato riportando il link di ExtremTech.
Non ti bastano quelle che ho detto nell'altro thread?
Scusami, ma non ricordo nessuna ricetta miracolosa da parte tua. Puoi sempre riportare il link e quotarti, eh! Io sono qui che aspetto...
Guarda che o vai massivamente multicore e fai in modo di parallelizzare i carichi in modo decente anche per una CPU o stigrancazzi. La fisica non la freghi.
Accomodati: fammi vedere come faresti a "parallelizzare i carichi" di qualunque applicazione, e il prossimo premio Turing non te lo leva nessuno.

Comincia con una cosa semplice: fammi vedere come parallelizzare l'emulazione di una CPU. Anche un semplice 6502 a 8-bit o una CPU più semplice, se non ti aggrada quella.
Non so che cosa vedi tu, ma io vedo che i PC hanno un andamento che non centra una sega con quello dei tablet.
http://www.extremetech.com/wp-content/uploads/2014/07/gartner-2014-2015-pc-tablet-sales-figures-prediction1-640x233.png
www.extremetech.com/computing/185937-in-2015-tablet-sales-will-finally-surpass-pcs-fulfilling-steve-jobs-post-pc-prophecy

Cioè un aumento delle vendite di 100'000 tablet in 3 anni mentre le vendite PC totali sono fondamentalmente stazionarie.

Proprio un "crollo", seguito da un "livellarsi" insieme ai tablet.

-non c'è nessun crollo ma una decrescita lenta
-i tablet sono in crescita
Guarda che hai riportato delle PREDIZIONI per gli anni 2014 e 2015. Ma li leggi i link prima di postarli? :asd:

Infatti non si sono rivelate vere:
http://www.businessmagazine.it/news/ancora-in-calo-il-mercato-tablet-per-il-primo-trimestre-dell-anno_57098.html
http://www.hwupgrade.it/news/tablet/continuano-a-diminuire-le-vendite-di-tablet-soprattutto-apple-e-samsung_57322.html
http://www.businessmagazine.it/news/mercato-dei-pc-ancora-in-crisi-intel-taglia-le-stime-di-fatturato_56440.html
http://www.hwupgrade.it/news/sistemi/volumi-del-mercato-pc-ancora-in-calo-per-il-2015_56446.html
http://www.businessmagazine.it/news/meno-cpu-per-sistemi-pc-ma-piu-per-i-datacenter-questo-il-q1-di-intel_56852.html
http://www.businessmagazine.it/news/in-calo-le-vendite-di-pc-a-inizio-2015-nel-mercato-emea_56931.html

Poi è paradossale che riporti il link a un articolo col seguente titolo:

"In 2015 tablet sales will finally surpass PCs, fulfilling Steve Jobs’ post-PC prophecy"

dimostrando che i tablet... competono coi PC (vedi anche il significato di post-PC, definito da Jobs). :asd:

E all'interno dell'articolo troviamo altre chicche interessanti:

"according to updated figures from Gartner, after five years of rather crazy tablet growth and slowly declining PC sale"

e

"PCs are meant to take a dip between 2013 and 2014 — but it’s actually a much smaller dip (~3%) than in 2012-2013, where PC sales dropped off a cliff (~10%)"

e

"Personally, I’m not convinced that 2015 will magically see the PC market suddenly experience its first major recovery in many years"

Insomma, tutta roba che porta acqua al tuo mulino. :asd:
Io ho detto che se li contiamo come mercato unico sì, se contiamo solo l'ambito desktop, o solo l'ambito server (gomitatina amichevole) dove il mercato consumer non frega una mazza....

Il punto che non hai ben compreso è che non c'è nulla di ufficiale che dica come debba essere valutata la situazione di monopolio. Perchè se dicono "monopolio in ambito PC" fai fatica a scappare anche ora.
Conta il mercato di riferimento, come già detto, e com'è riportato nel documento del dipartimento di giustizia americano.

Inoltre il link che hai fornito TU dimostra senza ombra di dubbio che il mercato E' unico, qualunque cosa tu possa pensare.

E no, non è soltanto ExtremeTech che ne parla in questi termini: basta una banale ricerca per vedere che non soltanto i siti d'informazione sono allineati in ciò, ma anche le agenzie di rating e di previsione, come la già citata Gartner (i cui dati sono stati riportati e commentati da ExtremeTech) o IDC, tanto per citare le più note e rinomate.

Ma puoi sempre sconfessare le tue stesse fonti, eh? Tanto non è certo una novità...
Lo conosci vero il concetto di socialismo?
Lo stato in teoria esiste per tutelare i cittadini, se deve scegliere se tutelare 4 gatti di una azienda o tutti i consumatori secondo te quale è la scelta che viene fatta?
Quella che è riportata nel documento in questione. Socialismo o meno. Come già ribadito, l'antitrust non può fare di testa sua, anche se a te piacerebbe che fosse così. Ma tu non fai giurisprudenza, fortunatamente.
Esatto, l'azienda paga una mazzettina e lo stato fa finta di niente. :asd:
Infatti si vede com'è finita con Intel, eh? Mica è stata condannata. Ma nooooo. Se lo saranno sognato...
??? Il potere legislativo (la cosa su cui si forma la base giuridica) è arbitrario. lo è sempre stato.
Se decidono che si fa così, si fa così.
Vabbé, nel tuo universo parallelo funziona così, abbiamo capito.
Il monopolio è stato dichiarato illegale da lungo tempo, se Intel non fa nulla per impedire di trovarsi in una situazione di palese illegalità è un suo problema.

Come per uno che ha una azienda che deve attenersi ai criteri di sicurezza antincendio. se un branco di deficienti entrano spaccano idranti e svellono le porte tagliafuoco (ellamadonna), l'azienda deve tirare fuori il cash e sistemare a spese sue, non esiste che dice "ma che c'entro io?".
Permettimi: e che dovrebbe fare Intel se AMD continua a non imbroccarne una? Chessò, dovrebbe prestargli un po' di suoi ingegneri per qualche anno? Comprarle lei i processori? Ripianare i suoi debiti? Pagare l'enorme esborso per l'acquisizione di Ati?

Elenca pure, perché tanto qui è in scena il teatrino dell'assurdo...
Sì vabbè. Tanto vale dire che finchè c'è ancora VIA c'è concorrenza. :mc: :mc: :mc:
E chi ha detto questo, scusami? Fammi capire: il tuo onnipotentissimo antitrust non potrebbe, per esempio, togliere la licenza IA-32 a VIA, che non se ne fa praticamente niente, e cederla a nVidia, che ha mostrato diverse volte interesse a entrare nel mercato dei PC (ultimo è il progetto Denver)?
Essendo closed source mi riesce difficile dirlo.
Ma ci arrivo dal fianco.
E' sufficiente prendere atto degli effetti: stesse API, ma le console riescono a fare di meglio.
Intanto ti dimostro che c'è un overhead non indifferente, visto che se un tizio è riuscito a fare di meglio tutto solo soletto (o anche con un team di sviluppo di un gioco)... l'ottimizzazione tanto vantata e il "zero overhhead"... dov'è?
Chi ha parlato "zero overhead"? Ma possibile che continui a cambiare continuamente discorso?

Qui si è parlato delle console che hanno MINORE (lo sottolineo) overhead rispetto al PC. MINORE != ZERO. Lo capisci una buona volta, o fai il finto tonto per mettere una pezza alla sparata che hai detto prima?

Quanto all'ottimizzazione, è OVVIO che ci sia: il MINORE overhead è dovuto proprio a questo, e fa il paio con la maggior vicinanza all'hardware che è stata pure citata nell'articolo che TU STESSO hai riportato.

Inoltre il fatto che le console sono meglio ottimizzate rispetto ai PC non c'entra una benemerita mazza rispetto al lavoro che è stato fatto dal tizio che hai citato prima. Questo signore può fare meglio? Sì? Bravo!!! Questo NON dimostra che manchino ottimizzazioni rispetto ai PC, perché ci sono (MINORE overhead!) ma semplicemente che ci sono ancora margini di miglioramento.

E' possibile sfruttare il lavoro di questo personaggio? NO, perché a quanto pare viola le guideline di Microsoft. Sic et simpliciter.

E' chiaro adesso? Perché più semplice di così non ce la faccio a spiegartelo.
Adesso mi spieghi perchè o linki documentazione.
Sono buono anche io di dire "no è totlament diverso".
Fatto. Vedi sopra. Non sono io che amo mischiare cose che non c'entrano niente.
Che ne sai che con "to-the-metal access and almost non-existent API Overhead" in realtà stiano parlando del fatto che le DX girano in realtà in multicore?
Perché sono cose che succedono dalla notte dei tempi, quando di multicore non c'era manco l'ombra.

To-the-metal-access lo si faceva già ai tempi dell'Atari 2600, e significa semplicemente che si è a diretto contatto con l'hardware. E questo ovviamente non ha nulla a che vedere col multicore.

Idem per la rimozione dell'overhead delle API: se accedi direttamente all'hardware, le API o non le usi, o le usi per pochi servizi, da cui hai un'overhead che rasenta lo zero. E' pure possibile che le API ci siano e vengano usate, ma che non debbano attraversare tutti i layer normalmente presenti in un s.o. "tradizionale"; basterebbe che l'API in questione, una volta invocata, potesse direttamente interfacciarsi con l'hardware (ad esempio con la coda della GPU), magari girando in user-space (quindi non ci sarebbe nemmeno l'overhead del context-switch). Ma anche qui, tutto ciò non ha nulla a che vedere col multicore.
Io dissi "Perchè fare fatica? Tanto OpenGL o DX sempre le loro schede devi comprare. "
Risposta tua: "Visto che c'è concorrenza, se nVidia non l'ha implementato nelle sue schede, AMD avrebbe potuto farlo nelle sue e portarsi in posizione di vantaggio = tanti bei soldi (visto che è un mercato molto profittevole)."

Oh, non ti stavo chiedendo un esempio teorico totalmente scollegato dalla realtà che illustrasse come in un ipotetica situazione in cui NVIDIA fosse stata assalita dai criceti-vampiro e lasciasse il fianco orribilmente scoperto sul suo dannato core businness allora AMD potrebbe con grande sforzo mentale decidere di sfruttarlo per guadagnarci.

Intel, AMD, NVIDIA implementano tutti e tre sia OpenGL che DX da sempre.

Quindi ho interpretato come "senza senso" e la storia non aiuta visto che anche in altri thread hai tirato fuori la strana idea che in un driver opensource per linux dovrebbero infilarci gli algoritmi degli shader delle DX quando le DX esistono solo su windows.
Se hai interpretato male, è un problema tuo. Perché, nello specifico, si era parlato ampiamente della distribuzione del carico di lavoro delle draw call su più core. E io avevo affermato che se prima non c'era nessuna azienda che ne faceva uso, qualcuna avrebbe potuto approfittarne e implementarla nella sua implementazione di OpenGL, e fregare la concorrenza, visto che il miniport OpenGL non è realizzato da Microsoft, ma dal produttore di schede video.

A parte questo, nell'altro thread si parlava di celare i segreti industriali nei driver. In particolare, il compilatore (nonché ottimizzatore) che traduce da HLSL alle istruzioni degli stream processor non è certo pubblico, ma ben nascosto e nVidia si guarda bene dal rilasciarlo. HLSL è usato dalle DirectX, ma il discorso è esattamente lo stesso per OpenGL, che invece usa GLSL, e il cui compilatore è stato, ancora una volta, imbucato da qualche parte da nVidia. Concetto: ho il codice di uno shader e lo devo tradurre nel binario dell'architettura dello stream processor.
Di cui più sopra allora.
"OpenGL l'ho sempre sentito più collegato al computing che ad altro, ma abbiamo qui NVIDIA, AMD e Intel in seduta congiunta che dicono cose..
http://blogs.nvidia.com/blog/2014/03/20/opengl-gdc2014/ "
C'è in un mio post poco prima, stessa pagina. Usare la funzione cerca del browser?
Non avevo chiaro a quale link ti riferissi, visto che ne hai riportati altri.

OK, e dunque OpenGL sarebbe meglio, ma hai visto di cosa? Delle DirectX11. Infatti l'articolo è di più di un anno fa.

Vogliamo vedere come andrà con le DirectX12, che saranno rilasciate il prossimo mese (con Windows 10)? Perché ho l'insano sospetto che QUALCOSINA cambierà pure con queste nuove API, a livello di riduzione dell'overhead delle chiamate...
Le cose che hai detto sono poco chiare.
Sono poco chiare perché:
- quoti soltanto poche parti;
- ti perdi il contesto della discussione;
- mischi discorsi diversi.

Nello specifico, da qui (http://www.hwupgrade.it/forum/showpost.php?p=42603552&postcount=46) riporto il testo di questa parte della discussione, che serve a ricostruire il contesto:

"In ogni caso rimane quanto già detto: sono i produttori delle schede video a mettere a disposizione i mini-port OpenGL, e non Microsoft. E avrebbero potuto benissimo realizzare quanto adesso è stato realizzato con le DX12, con qualche decennio d'anticipo.

Quindi? E' pertinente rispetto al discorso draw call spalmate su più core?

A maggior ragione ne avrebbero beneficiato, visto che il software professionale è da tempo appannaggio delle OpenGL.

Spalmare il lavoro delle draw call su più core non è un vantaggio soltanto per i giochi, ma per tutto il sottosistema grafico."

Il contesto era chiarissimo: draw call spalmate su più core. Cosa che sarebbe potuta esser implementate nel miniport OpenGL che è di dominio dei produttori di schede video.

E come vedi non c'entra nulla con quanto avevi quotato dopo, che riguarda VESA e software rendering.
"Quindi il framebuffer VESA è sufficiente, accoppiato a una scheda recente?"
mi faceva molto pensare che non avessi idea dell'esistenza e capillarità di OpenGL su Linux, dove fa la stessa cosa che DX fa su windows.
Conosco la situazione di Linux, ma il punto era un altro. Vedi sopra.

Quanto all'esigenza di avere le OpenGL accelerate, è un altro discorso, che affronto brevemente qui di seguito.
I driver accelerati per linux non li fanno perchè vogliono farci girare Compiz.

Compiz gira da sempre anche con schede modestissime.

Cristo è una interfaccia grafica, non è realtà virtuale.
Bene, e allora non serve l'accelerazione OpenGL su Linux, visto che per l'interfaccia grafica non è necessaria, e Linux non è il paradiso dei videogiocatori.

Dunque a che serve?
Lo sai vero che con la notazione x86 da un pò (tanto) di tempo si intende in realtà la x86_64.
A sì? E allora cortesemente scrivi a tutte le distribuzioni Linux chiedendo di sostituire x86_64 con x86 nei loro pacchetti. :D

Per curiosità, da quand'è che c'è stata questa rivoluzione? E hai delle fonti in merito?

Perché io sono rimasto che x86 rappresenta in generale tutta la famiglia di processori, e che quando si parla di architettura a 32 o 64 bit viene usato per indicare genericamente la prima, visto che per la seconda c'è già una sequela di nomi (x86-64, AMD64, x64, IA-32e, EM64T, e Intel64).
Se volevo dire 32 bit mettevo i686 che è il top di quello che erano riusciti a fare.
Guarda che dopo il PentiumPro (i686) qualche processorino migliore è stato tirato fuori, eh! Ma giusto un pelo migliore. :D

Ora, non è che puoi pretendere di imporre al resto del mondo la tua nomeclatura, o quella che viene usata in ambito Linux per indicare l'architettura MINIMA per usare un determinato kernel e annessi pacchetti.
Intel non ha le licenze per fare i processori x86 a 64 bit, sempre che non resusciti Itanium.
Itanium non c'entra nulla con x86: è un'architettura completamente diversa.

Inoltre chiunque può realizzare processori x86 a 64-bit. Anche e soprattutto Intel, che all'epoca dell'introduzione di x86-64 lavorava dietro le quinte a una SUA estensione a 64-bit di IA-32, che però fu bocciata da Microsoft, come riportano i numerosi rumor circolati all'epoca.

Se, invece, ti riferisci a x86-64, è chiaro che per produrre un processore compatibile con quest'architettura bisogna averne una licenza. Che Intel possiede già...
Per ora le usa per via di accordi bilaterali dove si scambiano le figurine con AMD, ma in caso AMD fallisca gli accordi saltano (ovviamente).
E dove starebbe scritto questo? Mi riporti il documento in questione?
Quindi sì, in caso AMD fallisca le licenze amd64 gli fanno gola.
Considerato che nel caso peggiore AMD potrebbe finire acquisita da un'altra azienda, i contratti in essere continuano a esistere, e dunque Intel non ha proprio nulla di cui preoccuparsi, visto l'accordo di mutuo cross-licensing stipulato (IA-32 ad AMD, e x86-64 a Intel).
Poi ti arrabbi se dico che non sai di cosa parli eh. Oh, per uno che lavora alla Intel non mi sembri così ferrato sulle basi. Ma è anche vero che il grosso della forza lavoro Intel non sa una mazza di processori.
Il classico attacco ad hominem, che dimostra un certo nervosismo da parte tua in questa discussione. Specialmente dopo quest'ultimo commento, ti pruderanno ancora di più le mani. :asd:

Lascia che siano gli altri a giudicare chi dei due pecchi sulle "basi". Sai, non è certo intellettualmente onesto giocare contemporaneamente nel ruolo di giocatore e di arbitro. Ti piace vincere facile? :D
Le APU vanno benissimo per il grosso del mercato PC, esattamente come i processori Intel moderni dal Pentium in giù. Il grosso del mercato PC sta benissimo anche con un CoreDuo e una integrata coeva, basta che gli metti un SSD.

Che siano "scarse" è un problema solo per una workstation o per un PC gaming,
Mi sorge il dubbio che tu non abbia mai aperto la recensione di un processore. Ecco qui (http://www.hwupgrade.it/articoli/cpu/4108/amd-a10-7800-la-apu-kaveri-a-basso-consumo_2.html) quella dell'ultima APU presentata. Tolti i giochi e le applicazioni "da workstation" (POVRay et similia), gli altri test sono utili o non so, magari tu la CPU la usi soltanto per ammirare il boot di Linux? Perché mi pare che anche in questi test rimanenti non è che l'APU brilli rispetto alle controparti Intel, e in particolare nelle "inutili" applicazioni web...
dove AMD "compete" con prodotti del 2012 o dei rebrand della stessa roba.
Se ti riferisci a Intel, non esistono rebrand.
Fai meno sviolinate. Intel è partita con delle grafiche integrate che facevano pena e sta aumentando sempre di più fino a rivaleggiare con le 650m, mentre AMD produce anche schede video quindi fanno dei gran copia-incolla dai progetti delle dedicate entry level.
Ciò non toglie che le GPU integrate siano insufficienti per un'esperienza videoludica che sia sufficiente. Vedi i test dell'APU di cui ho postato il link.

Come già detto, bisogna accontentarsi, e di molto. Se ti accontenti, allora nulla da dire. Altrimenti ti prendi una discreta.

Ma sono tutte cose che già avevo scritto.

OK, adesso mi fiondo a letto e non ho tempo di rileggere. Tanto non sarà qualche errore grammaticale a inficiare il contenuto del mio commento.

cdimauro
30-06-2015, 23:35
OK, last minute con questo commento.
Certo: http://hexus.net/tech/news/systems/84236-amd-explains-put-intel-inside-project-quantum-pc/ ;)
Avrebbero potuto dimostrare ai clienti che le loro CPU non avevano nulla da invidiare a quelle di Intel, no? Un po' di test, qualche grafico, e la frittata era fatta. Ma forse c'è qualcosa che non sarebbe andata per il verso giusto, non credi? :D
Sicuramente da l'anno prossimo cambierà tutto con la presentazione delle nuove CPU Zen da parte di AMD. ;)
Hai presente che nel frattempo quest'anno Intel presenterà SkyLake? E il prossimo anno ci sarà la sua versione a 10nm.

Pensi che Intel aspetti Zen? :cool:
I PC compatti non sono fatti per giocare, lo sanno anche i sassi, sia che siano con chipset Intel o AMD, anche se non è esatto quello che dici...molte APU lo permettono rinunciando a qualcosina di poco conto, basta vedersi un video qualsiasi su YouTube.
Ci sono i test che ho appena riportato nel precedente commento. E, come dicevo, bisogna accontentarsi, e non di poco, per usarle per giocare.
Un chip Intel può essere equilibrato dalla parte CPU ma quella grafica fa proprio ridere...puoi farci veramente poco.
Considerato che per tua stessa ammissione per giocare non vanno bene nemmeno le APU, a che ti serve una GPU, a parte vedere qualche video e renderizzare qualche pagina web? Compiti, peraltro, perfettamente alla portata anche delle GPU integrate di Intel, come puoi vedere tu stesso ancora una volta nei test di cui sopra, e dove la componente CPU fa sentire il suo peso non indifferente.

bobafetthotmail
02-07-2015, 11:58
Ciò che conta è la definizione di mercato rilevante, come emerge da un apposito documento del dipartimento di giustizia americano (=http://www.justice.gov/atr/public/international/286279.pdf).il link non va, sistemato qui di seguito nel caso altri volessero raggiungerlo.
http://www.justice.gov/atr/public/international/286279.pdf

Nello specifico, sarà sufficiente dimostrare che il mercato rilevante è quello costituito da PC e tablet. E la dimostrazione è banale,Dall'articolo citato nel pdf.

Traditionally, courts have examined market power or monopoly power in such cases, and the defendant’s share of a defined relevant market has played an important role in the analysis.
2.
Even when they are called for, however, market definition and shares are not in themselves dispositive. In those situations requiring a detailed analysis of competitive harm, the Agencies are often able to employ an increasingly sophisticated range of economic tools to assess competitive effects.

dalla prima pagina del testo (pag 2 del PDF).

-è una cosa valutata caso per caso

-è complesso

Proseguiamo e andiamo a pag 10

The Court addressed the issue by defining a relevant market “composed of products that have reasonable interchangeability for the purposes for which they are produced.”

Con reasonable interchangeability cosa intendiamo esattamente? Perchè nel caso che ha fatto da capostipite stavano confrontando del cellophan con delle altre pellicole di plastica, e anche un deficiente realizza che una pellicola di plastica chimicamente/meccanicamente simile al cellophan è "ragionevolmente intercambiabile" senza grossi problemi.

Ma un tablet ARM vs un PC o un portatile o un tablet con x86?
Eeeh... è discutibile e dipende da che fattori vengono fatti valere.
C'è tutta la questione dell'ergonomia che è assente in un tablet. La questione di software particolari da lavoro e i giochi PC decenti che non ci girano, la questione che è legato alla versione dell'OS con la quale è uscito o quella dell'anno dopo, la questione che è usa e getta, che l'hardware è merdacchioso rispetto ad un PC, eccetera.

Che ti dicevo io prima? Puoi dimostrare che hai ragione tu come può dimostrare che ha ragione qualcun'altro.

Ma, come già detto, non è sinonimo di desktop. Perché si possono realizzare delle applicazioni web che girino in locale, come dovresti sapere...Non capisco dove vuoi arrivare.
Io stavo dicendo che i chromebook sono in competizione con i desktop e ho dimostrato che sono tecnicamente in grado di fare quello che fanno la stragrande maggioranza dei desktop. Internet, ufficio, intrattenimento leggero, posta.

Cioè anche i portatili sono in forte competizione coi desktop. Solo che oggigiorno per comprare un nuovo PC si deve fisicamente rompere irreparabilmente quello vecchio e questo in genere non accade.
Parlo sempre di Internet, ufficio, intrattenimento leggero, posta, il 99% del mercato PC.

Sì, ma non nasce per il web.Io parlavo di app universali, il web lo hai inserito tu.
E non è nemmeno il primo (vedi Unity, ad esempio).Non vedo come questo contraddica la mia affermazione: "le app universali multipiattaforma sono il futuro" da cui è partito questo pezzo di discussione.

Se le macchine x86 invecchiano bene, vale per qualunque membro della famiglia, e gli effetti ricadono su tutti i mercati e le tipologie di processori adottati.
Sì, quando il mercato dei dispositivi in questione è saturo sì.
Coi chromebook non lo è ancora. Finchè un mercato si espande le vendite vengono da persone che non hanno l'oggetto e lo comprano.

A meno che, come già detto, non hai dei dati che dimostrino il calo dei profitti di Intel sia dovuto ai Celeron.Probabilmente perchè non l'ho mai detto. :mbe:
Ho parlato di vendite desktop in declino perchè il mercato è saturo, e ho detto che succede anche coi chromebook quindi non è che se adesso vendi celeron li continuerai a vendere sempre a questo ritmo.
Ho anche detto che coi celeron non è che fanno tutto sto enorme profitto comunque.
Oh è tutto documentato e scritto nei post precedenti. Lo so che farmi perdere tempo è più bello ma sarebbe carino se almeno controllassi un pò cosa ho effettivamente detto.

E infatti si vede come Intel non sia stata condannata dall'antitrust, vero? Eppure aveva tanti bei soldoni coi quali, parole tue:Condannata a pagare multe di meno di 1/10 del proprio fatturato annuo. Grosso modo quello che perdono adesso perchè i desktop non vendono.

è una questione di quanto gli conviene fare i difficili e quanto gli conviene non farlo.

Se con le manovre che hanno causato le ire dell'antitrust comunque contano di guadagnarci di più in futuro perchè non accettare la cosa?

O vogliamo tirare in ballo Bernard Madoff (https://en.wikipedia.org/wiki/Bernard_Madoff), che ha truffato MILIARDI DI DOLLARI ai propri clienti, e che deve scontare una pena per 150 anni. "Poverino", non aveva i soldi per uscirsene pulito...In parte bloccati perchè investiti, in parte (7 miliardi) dati ad un altro tizio e non recuperabili, in parte fuffa (guadagni gonfiati fasulli), in parte dati in beneficienza (almeno 3-4 miliardi) in parte bloccati dagli inquirenti. Tutte le cifre di cui era effettivamente a disposizione erano in milioni di dollari.

Per uno che fa uno schema ponzi da 20 anni e ruba miliardi questo qui è un pò un pirla eh. Ma sembra uno che effettivamente ha qualche leggero problema mentale da quello che dicono.

Ah, no? E come credi che ci siamo arrivati allo stato attuale? Per opera dello spirito santo? :asd:non puoi venirmi a dire che una estinzione di massa dove muoiono il 90% delle specie terrestri a causa di una ragione qualsiasi (non necessariamente il meteorite dei dinosauri) sia una prova che il sistema sia capace di chissà quale autoregolazione, il max che prova è che il sistema è relativamente compartimentalizzato e massivamente ridondante, anche facendo saltare la maggioranza della biosfera se gli dai altri 100 milioni di anni rigenera la biodiversità.

Attenzione eh, non è la stessa cosa.
Un sistema che si autoregola evita variazioni drammatiche delle specie presenti in esso, perchè appunto si autoregola.
Un sistema ridondante è semplicemente in grado di sopravvivere (attenzione che si parla di sistema e non di specie che lo compongono) anche a danni molto gravi.

Tornando al caso dell'economia, nel caso della crisi del 29 si parla comunque di intervento dello stato per riavviare l'economia che imbecilli avevano inchiodato e il mercato non partiva più.

Nel caso dei monopoli o dei cartelli vale lo stesso discorso. Sono un rischio di instabilità e danno troppo potere a chi non dovrebbe averne così tanto su un singolo mercato.

Quindi mi stai dando ragione: Windows 8 ha contribuito al calo. Contribuito ma non causato come dicevi tu. Il suo impatto è limitato all'anno in cui è uscito, poi il calo è tornato quello di prima.

Quanto al calo delle vendite, è originata dai tablet, come già detto e come tu stesso hai confermato riportando il link di ExtremTech.Mi spieghi nel dettaglio il ragionamento che ti porta a questa conclusione?
Vedere solo dei numeri che si abbassano in concomitanza di numeri che si alzano non prova nulla.
Bisogna provare che dei desktop o dei portatili sono stati sostituiti da tablet, e io francamente dalla mia postazione privilegiata di tizio che lavora in azienda che fa assistenza tecnica a terzi questa cosa non la vedo.
è personale e limitata e irrilevante finchè vuoi, ma mi fa dubitare delle sparate "i tablet sostituiranno i desktop" che tanti ignoranti scrivevano nei blog (confrontabile a "l'anno di linux desktop" come livello di nonsense).

Scusami, ma non ricordo nessuna ricetta miracolosa da parte tua.Discussione alla fine dell'articolo del rilascio di Ubuntu 15. Se ti interessa la trovi alla fine del thread.

Accomodati: fammi vedere come faresti a "parallelizzare i carichi" di qualunque applicazione, e il prossimo premio Turing non te lo leva nessuno.Con una FPGA che riconfigura il suo soft processor a seconda del carico in tempi brevissimi. Fa cagare rispetto ad una ASIC che fa la stessa cosa ma resta quelle 10-1000 volte meglio di una CPU generica (dipende dal carico) perchè può parallelizzare a livello "semi-hardware" diciamo delle cose che una CPU non può fare perchè la sua architettura è fissa.

La CPU generica la lasci a gestire il traffico e fare i carichi più leggeri.

Nel caso ti stessi chiedendo perchè è una idea geniale, è perchè non è mia ma di Intel.

Perchè hanno prodotto FPGA di Altera a prezzi di favore per 2 anni al processo produttivo top di 14nm in esclusiva mondiale e poi dopo un pò hanno anche comprato Altera secondo te?

Penuria di dev board per testare nuovi design di integrati e processori? Sisì, certamente.

Comincia con una cosa semplice: fammi vedere come parallelizzare l'emulazione di una CPU.Io sto parlando di hardware, non di software che emula hardware per fare dio solo sa cosa.
Intel è una software house o fa hardware? Allora è lì che bisogna lavorare.

Guarda che hai riportato delle PREDIZIONI per gli anni 2014 e 2015. Ma li leggi i link prima di postarli? :asd:Bravo che sei attento :D I post lunghi stancano e faccio casini anche io.

Poi è paradossale che riporti il link a un articolo col seguente titolo:
"In 2015 tablet sales will finally surpass PCs, fulfilling Steve Jobs’ post-PC prophecy"
dimostrando che i tablet... competono coi PC (vedi anche il significato di post-PC, definito da Jobs). :asd:La dimostrazione sarebbe nel fatto che chi ha scritto un articolo (chi è sto qui poi?) che si è anche rivelato farlocco ha detto che i tablet sono in competizione coi PC?

Cambia avvocato. In sede legale riderebbero.

"PCs are meant to take a dip between 2013 and 2014 — but it’s actually a much smaller dip (~3%) than in 2012-2013, where [B]PC sales dropped off a cliff (~10%)Mi sembra fossero gli anni in cui è uscito Win8, confermi?

Molta gente ha giurato MAI PIù appena ha visto 8.

Inoltre il link che hai fornito TU dimostra senza ombra di dubbio che il mercato E' unico, qualunque cosa tu possa pensare.Ho già detto che il problema qui è in sede legale, e ho già chiesto di spiegare in dettaglio le ragioni che ti fanno collegare le vendite di tablet con quelle dei PC in modo così forte da ritenerli un mercato unico.
Inoltre il mercato server e businness in genere non puoi realisticamente accorparlo ai tablet e lì Intel domina parecchio.

Permettimi: e che dovrebbe fare IntelRipeto: in USA vale la legge Sherman citata nel PDF che dici tu. I monopoli o azioni volti a crearli sono illegali, punto.
Legge, quelle cose fatte da quello che dici anche tu "stato di diritto". Ti piace questo diritto?
Bon, perchè le leggi son queste, passate democraticamente e tutto in tempi non sospetti.

E chi ha detto questo, scusami? Tu: "A maggior ragione perché esistono altre soluzioni (e licenziatari di IA-32, nello specifico) alla problematica in questione."
Quali altri licenziatari di IA-32 esistono a parte VIA?
Quindi se dici "licenziatari di IA-32" e stiamo escludendo AMD io penso a VIA e reagisco dicendo che VIA è messa peggio di AMD a livello di capacità di fare concorrenza ad Intel.

Fammi capire: il tuo onnipotentissimo antitrust non potrebbe, per esempio, togliere la licenza IA-32 a VIA, che non se ne fa praticamente niente, e cederla a nVidia, che ha mostrato diverse volte interesse a entrare nel mercato dei PC (ultimo è il progetto Denver)?
1. con quale autorità sta togliendo licenze a VIA che non sta violando leggi
2. con quale autorità sta ordinando a NVIDIA di produrre processori visto che non sta violando leggi
3. che è, ste licenze sono in numero limitato? Non puoi semplicemente forzare Intel che starebbe violando leggi se fallisce AMD a offrire X licenze all'asta e vedere chi se le prende?

E' sufficiente prendere atto degli effetti: stesse API, ma le console riescono a fare di meglio.No, questo era il punto di partenza, palese a tutti peraltro.
Il punto qui era: come lo spieghi? Hardware uguale, API uguali, OS quasi uguale (la Xbox)...
Secondo me le DX che lavorano quando chiamate quelle API sono diverse.

Ma tu continui a rispondere cose senza senso e arrivi persino a fare argomentazioni circolari, che le console hanno performance migliori perchè è un atto degli effetti che le console hanno performance migliori... WAT?

Cioè non so e non voglio pensare male, ma potresti ricontrollare quello che scrivi per vedere se è coerente con il discorso che si sta facendo?

Chi ha parlato "zero overhead"? Ma possibile che continui a cambiare continuamente discorso?Tu citato l'articolo che dice near-zero-overhead, io ho dimenticato un "near" ma è una dimenticanza minore dai.

Quanto all'ottimizzazione, è OVVIO che ci sia: il MINORE overhead è dovuto proprio a questo, e fa il paio con la maggior vicinanza all'hardware che è stata pure citata nell'articolo che TU STESSO hai riportato.Argomento circolare anche qui. C'è ottimizzazione perchè c'è meno overhead e perchè siamo più vicini all'hardware. Nono, io avevo chiesto di argomentare, non di ripetere le stesse 3 parole chiave in ordine sparso.

Comunque, utilizzare più di 1 core potrebbe in certi contesti essere definito "maggior vicinanza all'hardware"? Direi di sì.
Minore overhead.... pure, perchè se gira in multicore spezzi i carichi su più core e quindi non hai l'overhead che avresti se girasse su un core solo.

E quindi di conseguenza si potrebbe dire che è più ottimizzato. O sbaglio?

Questo NON dimostra che manchino ottimizzazioni rispetto ai PC, perché ci sono (MINORE overhead!) ma semplicemente che ci sono ancora margini di miglioramento.Io stavo dimostrando che tali margini di miglioramento ci sono ma non sono particolarmente sfruttati.
No per dire MS quante risorse ha? Quel tizio invece?

Quindi tutta sta storia delle ottimizzazione estrema su cosa si basa esattamente?
sul credere a quello che ti dicono e vedere che girano meglio?

Ma usare la propria testa e vedere se effettivamente non stanno facendo i furbi?

E' possibile sfruttare il lavoro di questo personaggio? NO, perché a quanto pare viola le guideline di Microsoft. Sic et simpliciter.Non è semplice per nulla invece. Tu stai solo ripetendo i fatti e aggiungendo nonsense in latino.

La domanda che ponevo io è perchè. Perchè non lo hanno ottimizzato così tanto come fanno credere alla gente?
Perchè questo tizio non può dirgli che magari se fanno una modifichina magari gira tutto meglio?

Oh è un tizio a caso che sviluppa un gioco, MS fa decine di miliardi di fatturato. Non potevano pagare qualcuno per pensarci?

Perché sono cose che succedono dalla notte dei tempi, quando di multicore non c'era manco l'ombra.Ma una console della notte dei tempi era così massivamente più performante di un PC a parità di hardware/potenza? Non mi pare sai. I problemi erano altri. Io c'ero. Io ricordo.

Ai bei tempi andati le console avevano accesso diretto all'hardware e basta, e anche i PC (o comunque i driver e specialmente il BIOS si aggiravano facilmente con buona pace di IBM).

La nascita di quello che è oggi una balla commerciale sulla fantomatica ottimizzazione, overhead e palle varie c'è proprio allora, e allora era vera.

Le console avevano lo stesso hardware, quindi una volta che facevi la tua applicazione che controllava direttamente l'hardware della console per cui facevi il gioco eri a posto. Girava su tutte le console X perchè tutte le console X avevano lo stesso hardware.

Coi PC un pò anche no. Troppa variabilità. C'era da riuscire a controllare direttamente troppo hardware diverso per poter dire che i PC erano supportati decentemente. Quindi c'era chi usava i driver che davano performance inferiori al controllo diretto o chi faceva controllo diretto poco ottimizzato.

Finchè MS non si è decisa a fare il Direct3D che poi è confluito nelle DirectX, che permette a chi scrive per PC di sbattersene di che hardware c'è sotto perchè tanto lui parla ad una API unica.

OpenGL è nata poco dopo ma ha avuto una giovinezza travagliata.

Ma la tecnologia migliorava, e diventava sempre più complessa, oggigiorno controllare direttamente una scheda video aggirando un driver è praticamente impossibile causa mancanza di documentazione, o non ci si riesce causa cose nel driver che devi usare o quando ci riesci ti cascano le braccia dal lavoro che devi fare per far funzionare una macchina del genere col tuo gioco.

Quindi oggigiorno in genere si usano le DX che almeno sono standard per tutti.

Anche nelle console ci sono, e nelle Xbox sembra proprio che puoi usare solo quelle da quanto vedo in giro e ho postato, quindi o sono ottimizzate le DX delle console o non so come cavolo fanno ad avere performance così migliori di un PC con hardware comparabile.

Nelle PS3 e PS4 ti danno le loro API, le directX e anche la possibilità di andare a lavorare a basso livello se ti va. Ma a occhio sono in pochi quelli che lavorano seriamente.

Ma ste cose le so solo io?
Perchè non c'è mai uno che sappia una cippa da nessuna parte?

Idem per la rimozione dell'overhead delle API: se accedi direttamente all'hardware, le API o non le usi, o le usi per pochi servizi, da cui hai un'overhead che rasenta lo zero.Aridajje con le argomentazioni circolari.
Ma secondo te sono così capra che non comprendo che "ottimizzazione", "near-zero-overhead" e "bare-metal-access" sono fondamentalmente dei sinonimi?

Io chiedo cosa significano queste parole nella realtà di oggi quando anche un tipo che non usava le API e accedeva direttamente all'hardware andava meglio di un sistema che in teoria doveva già essere ottimizzato, e che a causa di policy manifeste non permette ad uno sviluppatore di usare il tanto vantato "bare-metal-access" per raggiungere il nirvana del "near-zero-overhead".

E io avevo affermato che se prima non c'era nessuna azienda che ne faceva uso, qualcuna avrebbe potuto approfittarne e implementarla nella sua implementazione di OpenGL, e fregare la concorrenza, visto che il miniport OpenGL non è realizzato da Microsoft, ma dal produttore di schede video.Continui a far trapelare che non sai una mazza del settore. Questo avviene DA SEMPRE perchè le OpenGL le faceva un consorzio dei produttori di gpu, e a detta di molti questo è/era il problema principale delle OpenGL.
Troppe estensioni proprietarie per hardware specifico (specialmente Nvidia che è una amante dell'OpenGL).
Le estensioni che permettono di fare di tutto e di più ma limitate ad alcune schede.

Sono ottime per un software da workstation che è ottimizzato per 3 schede in croce dove il costo dei pezzi è irrilevante, ma è terribile per chi fa un gioco che deve girare su tutti i PC senza inchiodarsi.

Perchè i programmi da workstation usano OpenGL e non directX? Perchè non gli importa della scarsa compatibilità, ma gli serve performance.
Perchè i giochi preferiscono DX? perchè è uguale per tutti.

To-the-metal-access lo si faceva già ai tempi dell'Atari 2600, e significa semplicemente che si è a diretto contatto con l'hardware. E questo ovviamente non ha nulla a che vedere col multicore.Circa. Se hai accesso all'hardware l'unico responsabile del multicore o no del tuo programma sei tu, mentre se usi delle API dipendi da loro.
Ovvio che devi avere un multicore.

HLSL è usato dalle DirectX, ma il discorso è esattamente lo stesso per OpenGL, che invece usa GLSL, e il cui compilatore è stato, ancora una volta, imbucato da qualche parte da nVidia.No il punto del discorso era che in quel thread si stava parlando di linux e tu (in quel thread) sei saltato su dicendo che il HLSL che non puoi metterlo in un driver open per linux. Cioè io cosa devo pensare di una uscita del genere? Che sei molto originale e non stai negli schemi precostituiti della società?

Comunque se parliamo di driver proprietari, il GLSL di NVIDIA sta dentro al blob del loro driver, quello di AMD pure. Intel non ha blob proprietari, al max dei firmware per le sue GPU.

Mesa (di Intel) è open e ha il suo GLSL open + altra infrastruttura varia al quale si appoggiano i driver open come Noveau e Radeon e quelli delle altre schede merdacchiose di 14 anni fa oramai non più supportate neanche da Linux.

OK, e dunque OpenGL sarebbe meglio, ma hai visto di cosa? Delle DirectX11. Infatti l'articolo è di più di un anno fa.Ignori seriamente la presenza di Vulkan.... spero di no..... cosa devo pensare... come devo interpretare....

Il contesto era chiarissimo: draw call spalmate su più core. Cosa che sarebbe potuta esser implementate nel miniport OpenGL che è di dominio dei produttori di schede video.Mi sembrava di aver detto che OpenGL è già multicore, ma che per farlo devi usare estensioni proprietarie specifiche che rendono il software poco portabile (se non sei Valve o Adobe o una azienda grossa che può ottimizzarlo su tutto.

Bene, e allora non serve l'accelerazione OpenGL su Linux, visto che per l'interfaccia grafica non è necessaria, e Linux non è il paradiso dei videogiocatori.
Ma hai letto quello che ho detto? Ci sono solo 3 o 4 interfacce grafiche su 15 circa che necessitano di OpenGL, tutte le altre vanno in rendering software o sfruttano l'accelerazione 2D tramite protocolli antiquati.
Inoltre anche quando serve OpenGL resta una interfaccia grafica, non è particolarmente pesante, quindi anche driver poco ottimizzati come ad esempio Noveau che stanno ancora lottando per far girare le schede Nvidia moderne alla frequenza normale e non alla frequenza scarsa di avvio (nel completo disinteresse di NVIDIA), vanno senza problemi.

Come tutto questo lo interpreti come "non serve OpenGL su linux" io non lo comprendo e te ne chiedo spiegazione.

A sì? E allora cortesemente scrivi a tutte le distribuzioni Linux chiedendo di sostituire x86_64 con x86 nei loro pacchetti. :Dma perchè continui a parlare di cose di cui non sai una mazza e chiedermi di fare cose ridicole e anche sbagliate (il nome corretto è x86-64)?
Linux usa amd64, i686 e i386 come nomi delle architetture x86 visto che divide fondamentalmente in singlecore scrausi 32bit puri (i386), processori 32bit con hyperthreading e/o multicore e soprattutto con PAE (quindi in grado di vedere più di 4 GB di RAM anche se 32 bit, una feature che ha avuto un successone), e infine roba a 64 bit con feature alla rinfusa (amd64).

Apple e direi i BSD e Solaris invece che amd64 usano x86-64 (il nome corretto dell'architettura/licenza), il resto è uguale.

Per curiosità, da quand'è che c'è stata questa rivoluzione? E hai delle fonti in merito?
http://www.gartner.com/newsroom/id/2997118
Tiè, mercato sever x86. Mi vorrai mica dire che sono tutti 32 bit.

Qui http://wccftech.com/amd-promoting-generation-x86-zen-architecture-server-market-launch-expected-2016/
dicono che Zen è x86. Ovviamente perchè Zen è esclusivamente a 32 bit.

Itanium non c'entra nulla con x86: è un'architettura completamente diversa.Una di cui hanno le licenze però. L'ho citato perchè l'itanium 64 dovrebbero averlo.

E dove starebbe scritto questo? Mi riporti il documento in questione?
Ecco il contratto dello scambio delle figurine o licenze che dir si voglia. è avvenuto in seguito ad una scaramuccia quando AMD è diventata fabless, questa è la rinegoziazione di un contratto precedente.
http://www.sec.gov/Archives/edgar/data/2488/000119312509236705/dex102.htm
Alcune parti sono coperte dal segreto commerciale quindi non si leggono (fondamentalmente che licenze si sono scambiati oltre alla x86-64 e quali licenze sono fuori dall'accordo più altri dettagli minori) ma quello che conta per noi è leggibile,

5.2, Termination and effects of Termination:

(b) Termination in Bankruptcy. Subject to the terms of, and as further set forth in, Sections 5.2(d) and 5.2(e), and upon written notice to the other Party (as used in this Section 5.2(b), the “Terminated Party”), a Party may terminate this Agreement as a whole, or the rights and licenses of the Terminated Party and all of its Subsidiaries under this Agreement, or the rights and licenses of any Subsidiary of the Terminated Party, if (i) any Bankruptcy Event occurs with respect to such Terminated Party or with respect to any such Subsidiaries, and (ii) following such Bankruptcy Event, such Terminated Party or any of its Subsidiaries takes any Prohibited Action.

(c) Termination Upon Change of Control. Subject to the terms of, and as further set forth in, Sections 5.2(d) and 5.2(e), this Agreement shall automatically terminate as a whole upon the consummation of a Change of Control of either Party.

(d) Effects of Termination.

(levato perchè irrilevante)

(ii) In the event of any termination of this Agreement pursuant to Section 5.2(c), and subject to the provisions of Section 5.2(e), the rights and licenses granted to both Parties under this Agreement, including without limitation the rights granted under Section 3.8(d), shall terminate as of the effective date of such termination.

Visto che cita le Prohibited Actions vado a ripescarle.

1.34 “Prohibited Action” shall mean, as to any Person that is a debtor or debtor-in-possession in a case under the Bankruptcy Code or has any similar status in a case under any similar bankruptcy or insolvency law of any jurisdiction, any action by such Person or any of its Subsidiaries in furtherance or support of any of the following:


(a) any Chapter 11 plan of reorganization or similar reorganization or liquidation plan that contemplates or would permit a Change of Control of such Person upon or following the effectiveness of such plan, unless such plan and any order confirming or otherwise approving such plan would and does also expressly bind such Person and its Subsidiaries, and each of their successors and assigns, to each and every term and provision of this Agreement, including without limitation Sections 5.2 and 7.2 hereof, upon and following any Change of Control;


(b) any motion or similar pleading or effort to assign this Agreement or any of such Person’s or its Subsidiaries’ rights hereunder without the prior written consent of the Parties hereto;


(c) any motion or similar pleading or effort to assume the Agreement or any of the rights of such Person or its Subsidiaries hereunder, unless such motion, pleading, or effort and any order entered by a court in connection therewith would and does also expressly result in such Person and its Subsidiaries continuing to be bound by each and every term and provision of this Agreement, including without limitation Sections 5.2 and 7.2 hereof, upon and following the assumption; or


(d) any motion, pleading, or similar effort to sell any Patent (or any right therein) in which any Party has a license under this Agreement, unless such motion, pleading, or effort and any order entered by a court in connection therewith would and does also expressly result in such Party retaining its full license rights upon and following the sale.


Ricapitoliamo:
In caso di fallimento di AMD le licenze di AMD o che Intel dà ad AMD tramite questo accordo possono essere terminate in un qualsiasi momento qualcuno cerchi di acquisire AMD senza il benestare di Intel. Anche le licenze di AMD.
Stessa storia per cercare di vendere le licenze o di darle a sussidiarie in modo permanente.

La cosa interessante è che il contratto lascia aperta la possibilità ad una ipotetica AMD in bancarotta di fare una manovra proibita tipo farsi acquisire o permettere una acquisizione e poi affrettarsi a citare quello per terminare bilateralmente l'accordo in toto, mettendo nei casini paurosi Intel che perde i 64 bit mentre AMD non perde un granchè di valore per gli altri che non la comprano di certo per entrare nel magico mercato x86 con Intel padrona e tutto saturo e in calo.

Se qualcuno compra AMD (punto (c)) di botto allora l'accordo salta bilateralmente in automatico e sono cazzi amari per Intel senza se e senza ma, ma questo qualcuno non potrebbbe comunque fare concorrenza ad Intel negli x86, visto che la licenza per il 64 bit è una estensione del i386/i686 o IA-32 di Intel, non sta su da sola.
Se ci fanno degli ARM invece chissenefrega perchè la base a 32 bit la fornisce ARM.

Il classico attacco ad hominem, che dimostra un certo nervosismo da parte tua in questa discussione.
Boh, te sono almeno 3 volte che mi dici che sono disonesto e faccio giochetti e io non faccio l'offeso.

Lascia che siano gli altri a giudicare chi dei due pecchi sulle "basi". Sai, non è certo intellettualmente onesto giocare contemporaneamente nel ruolo di giocatore e di arbitro. Ti piace vincere facile? :D
Per essere arbitro devo avere qualche potere in più. Sennò sono solo un giocatore che commenta.
Quindi con uno specchio-riflesso faccio rimbalzare l'"intellettualmente onesto" verso di te che inventi cose solo per potermi dire che sono disonesto.

Mi sorge il dubbio che tu non abbia mai aperto la recensione di un processore.Nono, fermo lì.
Aspetta un attimo che vado a rileggere cosa avevo scritto...
"Le APU vanno benissimo per il grosso del mercato PC, esattamente come i processori Intel moderni dal Pentium in giù. "

Notare "dal Pentium in giù".

Questo rende nulla tutta la tua argomentazione e i bench e tutto. Non li stavo confrontando con gli i3 e gli i5.
Spero che sia un errore dovuto alla stanchezza.

Se ti riferisci a Intel, non esistono rebrand.Coda di paglia? Mi riferivo ad AMD, ovviamente. Gli unici prodotti nuovi, interessanti e competitivi sono le APU, ma non sono processori di fascia alta, al max di fascia medio-bassa.

Ciò non toglie che le GPU integrate siano insufficienti per un'esperienza videoludica che sia sufficiente.Non coi soliti titoli sparati al max, ovvio. Ma (molto) meglio di una integrata di un Pentium mi concederai che vanno.

Come già detto, bisogna accontentarsi, e di molto. Se ti accontenti, allora nulla da dire. Altrimenti ti prendi una discreta.Invece la grafica Intel non ti devi accontentare, o usi il PC come ufficio o mediacenter o prendi la discreta.

OK, adesso mi fiondo a letto e non ho tempo di rileggere. Tanto non sarà qualche errore grammaticale a inficiare il contenuto del mio commento.La disattenzione però sì. Per favore leggi con attenzione quello che scrivo, qui vedi lucciole per lanterne ogni 3 quote, se continua così devo sospendere perchè diventa solo tempo perso.

Hai presente che nel frattempo quest'anno Intel presenterà SkyLake? E il prossimo anno ci sarà la sua versione a 10nm.Uhhh sono qui che non sto nella pelle, un altro incremento del 5% delle prestazioni e una inutile riduzione dei consumi (con una riduzione dei core che mi infastidisce) che mi costringe a cambiare non solo processore, non solo scheda, ma anche ram con RAM costose che non sono neanche ECC o Registered per giustificare la spesa.... appena esce corro a comprarne 4, mica 1. :read:

Il sospetto che ci sia un flop delle vendite cosmico è reale. Un Ivy bridge o Haswell qualsiasi nella stessa fascia di potenza non ha nulla da invidiare a Skylake, o CannonLake o stacippa che fanno in futuro. O aumentano l'incremento di prestazioni per generazione o mi danno più features della precedente o vanno a farsi benedire e continuo a comprare xeon ivy bridge a prezzi stracciati sulla baia e vecchie schede che costano metà delle nuove e vanno con ram che non costano un botto.

Se AMD con Zen nel versante features ritorna in carreggiata offrendo supporto a memorie ECC, registered e accelerazione hardware per sistemi crittografici (raid sofware avanzati come ZFS e btrfs e crittazione dischi) anche per postazioni desktop come ha fatto in passato (ad esempio i SoC socket AM1 supportano le ECC e hanno accelerazione crittografica), vai che si torna su AMD alla svelta.

Considerato che per tua stessa ammissione per giocare non vanno bene nemmeno le APU, a che ti serve una GPU, a parte vedere qualche video e renderizzare qualche pagina web? Compiti, peraltro, perfettamente alla portata anche delle GPU integrate di Intel,Ma la smettiamo di fare i fanboy a caso?
Con una APU decente ci giochi a Battlefield 4 in fullHD coi dettagli medi o anche a Warframe.

come puoi vedere tu stesso ancora una volta nei test di cui sopra, e dove la componente CPU fa sentire il suo peso non indifferente.Una differenza del 20-30% nei bench su CPU contro l'i3... ma compensata dalla integrata decente per giocare senza pretese.... Più o meno al prezzo dell'i3.
l'i5 è ampiamente fuori prezzo quindi chissenefrega.

Dinofly
09-07-2015, 16:46
Nessuno. Questo è uno spinoff, non una vendita.

Sarebbe il primo passo del giochino "good company e bad company" che tanti, tra cui anche FIAT fanno. Dividi la multinazionale in 2, in una ci metti tutte le attività che vanno bene, nell'altra tutte quelle che vanno meno bene o proprio male (esempio FIAT ha tenuto la parte che fa auto nella "bad company").

Questo ti permette di abbandonare a sè stessa la bad company se necessario.

Quindi non è un buon segno.

Ci sarà da scompisciarsi quando gli antitrust citeranno ARM come competitor di Intel pur di non punirli per il loro monopolio (perchè ora non sono un monopolio, nono, sono al 99%, ma finchè non sono al 100% totale nessuno si azzardi mai)

Gradino sotto un corno. la forte maggioranza dei PC desktop consumer sarebbero meglio con una APU invece che con un processore casuale entry-level Intel considerati i carichi.

Per i processori seri non è un gradino sotto, è proprio fuori dai giochi. Server è fuori, gaming anche.

E tutto perchè quei geni di MS non vogliono far sfigurare le console.
Non è tanto epr abbandonarla a se stessa, i lrpoblema vero è che se io ho due divisioni e una di queste funziona male, la mia disponibilità di autofinanziamento e investimenti per R&D nel settore che funziona è limitata, mi ritroverò a sovvenzionare con i cash flow delle VGA le CPU, il problema si pone relativamente se sono un monopolista o ho forte potere di mercato, ma se entrambi sono ambienti competitivi, le pessime performance della divisione cpu rischiano di portarsi dietro tutta la baracca.