PDA

View Full Version : John Carmack: i dispositivi mobile non saranno mai potenti come PC


Redazione di Hardware Upg
16-10-2017, 10:01
Link alla notizia: http://gaming.hwupgrade.it/news/videogames/john-carmack-i-dispositivi-mobile-non-saranno-mai-potenti-come-pc_71746.html

Il guru tecnico di Oculus VR è intervenuto la scorsa settimana all'Oculus Connect, ribadendo comunque l'importanza dell'ecosistema mobile per la realtà virtuale

Click sul link per visualizzare la notizia.

nudge
16-10-2017, 10:02
Ma dai? Ovvio! Fintanto che avranno una batteria limitata

nudge
16-10-2017, 10:02
Ma dai? Ovvio! Fintanto che avranno una batteria limitata

pabloski
16-10-2017, 10:11
Ma dai? Ovvio! Fintanto che avranno una batteria limitata

Non e' questione solo di batteria ma di volume fisico.

Sulla falsa riga di Carmack potrei dire: "I PC non saranno mai potenti come i supercomputer".

E ovviamente bisogna anche specificare di cosa si sta parlando, nel senso che il fronte fatto da Carmack e' tra PC e dispositivi mobile coevi. Se confronto uno smartphone moderno con un PC di 20 anni fa, e' difficile dire in termini assoluti "i dispositivi mobili non saranno mai potenti come i PC".

Jenosky
16-10-2017, 10:27
Ragazzi, l'acqua messa sul fuoco è più calda di quella messa nel frigo.

E' una semplice questione di volume: un processore 40x40mm, a parità di tecnologia, sarà sempre più potente di uno 10x10.

Genio.

TheZioFede
16-10-2017, 10:39
Non e' questione solo di batteria ma di volume fisico.

Sulla falsa riga di Carmack potrei dire: "I PC non saranno mai potenti come i supercomputer".

E ovviamente bisogna anche specificare di cosa si sta parlando, nel senso che il fronte fatto da Carmack e' tra PC e dispositivi mobile coevi. Se confronto uno smartphone moderno con un PC di 20 anni fa, e' difficile dire in termini assoluti "i dispositivi mobili non saranno mai potenti come i PC".

Beh immagino intendesse pc relativamente recenti :D

sslazio
16-10-2017, 10:59
a parte il fatto che è la fiera dell'ovvio quello che ha detto, c'è da dire che il nuovo A11 di Apple ha prestazioni di una cpu desktop già oggi quindi non ha nemmeno tanta ragione.
Se Apple volesse per assurdo fare un octacore con le core unit di un A11 (magari da infilare in Ipaddone, è verosimile pensare che una cpu smartphone/tablet del 2017 sia già più potente di una cpu desktop.

Boro
16-10-2017, 11:00
mm ma il succo dell'articolo non sta nell'affermazione che i PC saranno sempre più potenti dei dispositivi mobili, direi che il titolo non è esplicativo dell'articolo.

Korn
16-10-2017, 11:04
Link alla notizia: http://gaming.hwupgrade.it/news/videogames/john-carmack-i-dispositivi-mobile-non-saranno-mai-potenti-come-pc_71746.html

Il guru tecnico di Oculus VR è intervenuto la scorsa settimana all'Oculus Connect, ribadendo comunque l'importanza dell'ecosistema mobile per la realtà virtuale

Click sul link per visualizzare la notizia.

piuttosto che torni a programmare giochi che si è infilato in un flop annunciato

Mparlav
16-10-2017, 11:19
Non è necessario che i dispositivi mobile siano più potenti, e come potrebbero visto lo spazio a disposizione, ma che lo siano abbastanza.

Il crollo delle vendite dei PC negli ultimi ultimi anni è sintomo che, per la maggior parte degli utenti, un dispositivo mobile è un sostituto più che accettabile per la navigazione web e per il gaming.

Dunque mi tengo il PC vecchio fino a quando non ci sarà una reale necessità per cambiarlo, il che comprende anche giochi per cui veramente valga la pena un costoso upgrade.

kamon
16-10-2017, 11:21
Beh, diciamo che potrebbero avvicinarsi parecchio... Se un domani il settore pc diventasse così infruttuoso per i produttori tanto da rendere gli investimenti per lo sviluppo totalmente controproducenti... E sarebbe uno scenario tutt'altro che fantasioso se nel settore mobile si cominciasse a ragionare davvero sull'utilizzo dei device per la produzione di contenuti e non solo per la fruizione...

Nurgiachi
16-10-2017, 11:23
Capitan Ovvio

tuttodigitale
16-10-2017, 11:36
c'è da dire che il nuovo A11 di Apple ha prestazioni di una cpu desktop già oggi quindi non ha nemmeno tanta ragione.
:rolleyes:

biometallo
16-10-2017, 11:40
mm ma il succo dell'articolo non sta nell'affermazione che i PC saranno sempre più potenti dei dispositivi mobili, direi che il titolo non è esplicativo dell'articolo.

IMBA nessuno ha letto l'articolo oppure la mente ormai è talmente focalizzata sul titolo perdendo di vista il punto, che poi non è che anch'esso dica davvero nulla di nuovo:

In pratica mi pare che accusi gli altri sviluppatori di non voler perder tempo ad ottimizzare il codice sui dispositivi attuali ma di pensare sempre all'hardware che da lì a poco giungerà sul mercato, e che di come con il passaggio al mondo mobile, che ha una minore potenza di calcolo sia necessario un cambio di rotta a favore dell'ottimizzazione...

In pratica se si sostituisce console a mobile, mi sembra la solita polemica più vecchia di Doom, inoltre se per le console il discorso mi è sempre parso sensato, dato che l'avanzamento tecnologico non è costante ma avviene per salti generazionali (almeno fino ad oggi è sempre stato così anche se in futuro non è detto che non cambi) nel mondo mobile mi sembra si sia messi peggio che su pc (che nel frattempo hanno rallentato molto la loro crescita)
Ha senso per un programmatore spaccasi il culo ad ottimizare un gioco per Iphone5 quando la gente è già in fila per sostituire il modello dell'anno scorso con il nuovo "più caro di sempre"?

nickname88
16-10-2017, 11:57
a parte il fatto che è la fiera dell'ovvio quello che ha detto, c'è da dire che il nuovo A11 di Apple ha prestazioni di una cpu desktop già oggi quindi non ha nemmeno tanta ragione.
Se Apple volesse per assurdo fare un octacore con le core unit di un A11 (magari da infilare in Ipaddone, è verosimile pensare che una cpu smartphone/tablet del 2017 sia già più potente di una cpu desktop.Nel mondo dei sogni sicuramente.

Visto che secondo il geekbench in teoria l'A11 in single thread dovrebbe eguagliare un Ryzen 7 1700x e in MT far poco meno della metà. La verità poi è un altra, ossia che il geek non è nemmeno lontamente affidabile e serve appunto per promuovere le soluzioni mobile a livello pubblicitario.

O preferiamo credere che 2 chippetti da 5W ciascuno facciano meglio di un Ryzen 7 da 95W ?
Mi domando allora perchè non comincino ad usarli su desktop e su server al posto di Epyc e Xeon ( anzichè relegarli solo su determinati campi ).

I bench veri invece come il Cinebench vengono tenuti alla larga dalle piattaforme mobile o proposte in edizioni differenti ( come il 3D Mark ) proprio per evitare un confronto diretto con le soluzioni desktop perchè sanno già essere impietose.

Se l'A11 raggiungesse un Pentium è già tanto.

Madcrix
16-10-2017, 12:34
a parte il fatto che è la fiera dell'ovvio quello che ha detto, c'è da dire che il nuovo A11 di Apple ha prestazioni di una cpu desktop già oggi quindi non ha nemmeno tanta ragione.
Se Apple volesse per assurdo fare un octacore con le core unit di un A11 (magari da infilare in Ipaddone, è verosimile pensare che una cpu smartphone/tablet del 2017 sia già più potente di una cpu desktop.


:asd: :asd: :asd:

nitro89
16-10-2017, 12:36
a parte il fatto che è la fiera dell'ovvio quello che ha detto, c'è da dire che il nuovo A11 di Apple ha prestazioni di una cpu desktop già oggi quindi non ha nemmeno tanta ragione.
Se Apple volesse per assurdo fare un octacore con le core unit di un A11 (magari da infilare in Ipaddone, è verosimile pensare che una cpu smartphone/tablet del 2017 sia già più potente di una cpu desktop.

:asd: :read:

songohan
16-10-2017, 12:40
L'unico commento sensato è venuto da Jenosky, che ha sottolineato 'a parità di tecnologia'. Ciò che conta non è né la dimensione né il dispendio energetico. Ciò che conta è il numero di transistor e la logica che c'è dietro. E non è scritto da nessuna parte che, utilizzando tecnologie diverse, un dispositivo mobile non possa essere - in futuro - più veloce di uno desktop.

nickname88
16-10-2017, 12:43
L'unico commento sensato è venuto da Jenosky, che ha sottolineato 'a parità di tecnologia'. Ciò che conta non è né la dimensione né il dispendio energetico. Ciò che conta è il numero di transistor e la logica che c'è dietro. E non è scritto da nessuna parte che, utilizzando tecnologie diverse, un dispositivo mobile non possa essere - in futuro - più veloce di uno desktop.Tecnologie diverse devono comunque rispondere ad un consumo elettrico, dove un prodotto da 5W non va da nessuna parte se non con un enorme differenza a livello di PP.

Senza contare che non parliamo a livello generico, le architetture in questione sono le ARM, i cui pro e contro sono noti per quanto possa essere evoluta.

FroZen
16-10-2017, 13:31
Aggiungo...

L'acqua è bagnata.

Non ci sono più le mezze stagioni.

biometallo
16-10-2017, 13:45
Aggiungo...

L'acqua è bagnata.

Non ci sono più le mezze stagioni.

Non per difendere Carmak, ma come per primo si è accorto Boro in realtà che i pc abbiano più potenza di calcolo degli smartphone era solo il presupposto da cui è partito il suo ragionamento, qui invece tutti sembra si siano fatti forviare dal titolo e\o non resistano all'idea di fare a gara a chi lo ha più lungo fra mobile e la "pc master race"

Ovvio x Ovvio Ci sarebbe anche il problema dello smaltimento del calore, dato che su uno smartphone non ci puoi mica infilare un dissipatore che pesa mezzo chilo o una ventola di 10 cm di raggio...

Notturnia
16-10-2017, 13:51
Il discorso di carmack era giusto.. siccome il mobile non sarà mai potente come il pc fisso è ora che gli sviluppatori per il mobile inizino a programmare bene.. non essendoci riserva di potenza come nei pc fissi dei V programmare meglio su un mobile o fa tutto schifo..

Un mobile resterà un mobile.. e non potrà fare concorrenza in quanto a potenza contro un fisso.. con 5W puoi fare certe cose.. con 100W puoi fare altro.. magari solo 10 volte più cose ma sempre più cose.. motivo per cui ci sono reti da MW e non mW..

Ma se programmi bene anche con 5W ci fai qualcosa di bello.. e anche con i 100W di un pc puoi fare schifezze se non sai programmare..

carmack ha ragione.. devono programmare bene e non fare a caso sennò con i pochi watt che hanno non ci cavano molto...

pabloski
16-10-2017, 14:51
Il discorso di carmack era giusto.. siccome il mobile non sarà mai potente come il pc fisso è ora che gli sviluppatori per il mobile inizino a programmare bene..


Oddio questo dovrebbe valere in qualsiasi contesto. L'ottimizzazione e' da fare, non e' che avendo un form factor piu' grande, ventole piu' potenti, corrente presa dalla rete invece che dalla batteria, possiamo fregarcene dell'efficienza del software.

Il problema e' che ormai l'industria informatica punta a sfornare quanti piu' prodotti possibile nel minor tempo possibile, nel processo l'ottimizzazione e' la piu' sacrificata ( oddio, la sicurezza e' messa pure peggio ).

Cappej
16-10-2017, 15:21
ma cosa dice questo!!!

il mio iPhone 8 plus supera il Macbook Air del mio amico su Qudrant!!!

ma poi chi lo conosce questo!!?!??!

quanti followers ha sul suo canale?!?! Ha almeno partecipato ad X-Factor?!?!?

ma che si trovi un lavoro.. a quell'età!!!

















:sofico: :sofico: :sofico:

Lampetto
16-10-2017, 15:24
a parte il fatto che è la fiera dell'ovvio quello che ha detto, c'è da dire che il nuovo A11 di Apple ha prestazioni di una cpu desktop già oggi quindi non ha nemmeno tanta ragione.
Se Apple volesse per assurdo fare un octacore con le core unit di un A11 (magari da infilare in Ipaddone, è verosimile pensare che una cpu smartphone/tablet del 2017 sia già più potente di una cpu desktop.

Questo te l'ha detto Cook di persona?

nickname88
16-10-2017, 15:35
Oddio questo dovrebbe valere in qualsiasi contesto. L'ottimizzazione e' da fare, non e' che avendo un form factor piu' grande, ventole piu' potenti, corrente presa dalla rete invece che dalla batteria, possiamo fregarcene dell'efficienza del software.

Il problema e' che ormai l'industria informatica punta a sfornare quanti piu' prodotti possibile nel minor tempo possibile, nel processo l'ottimizzazione e' la piu' sacrificata ( oddio, la sicurezza e' messa pure peggio ).
In teoria questa sarebbe la giusta risposta.

plunderstorm
16-10-2017, 18:21
potrebbero sviluppare e potenziare quello che ha introdotto con nvidia "grid" :)

Univac
16-10-2017, 20:10
Ma giusto per sapere,
sugli smartphone di ultima generazione, un qualcosa di paragonabile al primo crysis(2007), con risoluzione e frame accettabili per la VR, ci potrebbe girare o siamo ancora lontani?
edit: cavolo.... sembra la "solita" domanda, ma sono serio...

nickname88
17-10-2017, 09:36
Ma giusto per sapere,
sugli smartphone di ultima generazione, un qualcosa di paragonabile al primo crysis(2007), con risoluzione e frame accettabili per la VR, ci potrebbe girare o siamo ancora lontani?
edit: cavolo.... sembra la "solita" domanda, ma sono serio...
Finchè non ci saranno i benchmark paragonabili fra mobile e desktop rimarrà un mistero.
Comunque anche se vecchio io non prenderei in considerazione il primo come esempio.

nitro89
17-10-2017, 10:53
Ma giusto per sapere,
sugli smartphone di ultima generazione, un qualcosa di paragonabile al primo crysis(2007), con risoluzione e frame accettabili per la VR, ci potrebbe girare o siamo ancora lontani?
edit: cavolo.... sembra la "solita" domanda, ma sono serio...

anni

cdimauro
18-10-2017, 05:08
in ogni caso, rimpiango il carmack dei motori 3D. Questo ormai fa il santone.
Infatti. Ormai è la fiera delle ovvietà.

Finché ci saranno continui miglioramenti all'hardware gli sviluppatori non avranno alcun interesse a perdere tempo con maggiori ottimizzazioni (perché che non ottimizzino è una balla colossale).

Quando i produttori di hardware rallenteranno causa (ovvia) morte della "legge di Moore", allora si sarà costretti a ottimizzare il più possibile per spremere meglio quello che c'è, come si faceva ai vecchi tempi.

Ma penso sarà necessario una decina d'anni al più, se non si troverà alcun modo per far migliorare le prestazioni dopo che avremmo raggiunto i limiti della miniaturizzazione col silicio. Per cui c'è ancora parecchio tempo.

nickname88
18-10-2017, 08:30
Infatti. Ormai è la fiera delle ovvietà.

Finché ci saranno continui miglioramenti all'hardware gli sviluppatori non avranno alcun interesse a perdere tempo con maggiori ottimizzazioni (perché che non ottimizzino è una balla colossale).

Quando i produttori di hardware rallenteranno causa (ovvia) morte della "legge di Moore", allora si sarà costretti a ottimizzare il più possibile per spremere meglio quello che c'è, come si faceva ai vecchi tempi.

Ma penso sarà necessario una decina d'anni al più, se non si troverà alcun modo per far migliorare le prestazioni dopo che avremmo raggiunto i limiti della miniaturizzazione col silicio. Per cui c'è ancora parecchio tempo.
La legge di Moore è una di quelle cose che ad ogni anno che arriva, muore l'anno prossimo, e intanto TSMC prevede già di iniziare a produrre a 3nm, figurati poi quando subentrerà in gioco l'utilizzo di più materiali in supporto al silicio. Fino all'introduzione di nuovi materiali più idonei.

cdimauro
19-10-2017, 05:58
La legge di Moore è intrinsecamente legata alla dimensione dei transistor. Osserva che ogni due anni (circa) il loro numero raddoppia. Ovviamente causa utilizzo di nuovi processi produttivi, dove i transistor occupano meno spazio, e quindi è possibile impacchettarne di più (il doppio, appunto, ogni due anni).

A sua volta la dimensione dei transistor è, ovviamente, legata ai materiali. Alla fisica. E quindi in ultima analisi alla dimensione degli atomi, che sappiamo essere limitata.

Ergo: la legge di Moore è destinata inevitabilmente a morire, e succederà con le tempistiche che ho descritto prima, a giudicare dalla tabella di marcia dei processi produttivi (ovviamente se ci sarà sempre più difficoltà a scendere di dimensione, i tempi si allungheranno, e di conseguenza i benefici derivanti dall'adozione dei nuovi processi).

Cambiare materiali NON risolve assolutamente il problema. Tutt'altro, visto che l'atomo di Silicio non è poi così grande, mentre come sostituti del Silicio si parla di altri materiali basati, però, su elementi più pesanti & grandi.

Il Carbonio è più piccolo, ma non c'è molta differenza, e per giunta non sappiamo se potremo utilizzarlo come il Silicio per realizzare i transistor. Quindi anche qui non cambierà molto.

nickname88
19-10-2017, 08:19
La legge di Moore è intrinsecamente legata alla dimensione dei transistor. Osserva che ogni due anni (circa) il loro numero raddoppia. Ovviamente causa utilizzo di nuovi processi produttivi, dove i transistor occupano meno spazio, e quindi è possibile impacchettarne di più (il doppio, appunto, ogni due anni).

A sua volta la dimensione dei transistor è, ovviamente, legata ai materiali. Alla fisica. E quindi in ultima analisi alla dimensione degli atomi, che sappiamo essere limitata. La legge di Moore morirà un giorno ma penso che fra 20 anni ciò non sarà ancora avvenuto.

Ergo: la legge di Moore è destinata inevitabilmente a morire, e succederà con le tempistiche che ho descritto prima, a giudicare dalla tabella di marcia dei processi produttivi (ovviamente se ci sarà sempre più difficoltà a scendere di dimensione, i tempi si allungheranno, e di conseguenza i benefici derivanti dall'adozione dei nuovi processi).

Cambiare materiali NON risolve assolutamente il problema. Tutt'altro, visto che l'atomo di Silicio non è poi così grande, mentre come sostituti del Silicio si parla di altri materiali basati, però, su elementi più pesanti & grandi.

Il Carbonio è più piccolo, ma non c'è molta differenza, e per giunta non sappiamo se potremo utilizzarlo come il Silicio per realizzare i transistor. Quindi anche qui non cambierà molto.
In realtà si parlava già da 10 anni di nanotubi di grafene, salvo poi fuoriuscire numerosi rumors su nuovi materia sintetici derivati da esso e migliori.

Che non cambierà molto lo diceva qualche utente anche per la situazione x86, dove Intel doveva essere già al limite a livello di micro architettura, salvo poi annunciarne un altra nuova di zecca all'uscita di Ryzen.

R@nda
19-10-2017, 08:56
Mia nonna non sarà mai più giovane :( (oohhhhh)
Si ho letto solo il titolo :D

frankbald
19-10-2017, 11:27
Infatti il futuro sarà avere connessioni in fibra o 5g e utilizzare la potenza di calcolo di server così da finalmente staccarci da tutta questa corsa inutile e frammentata all'hardware più potente

nickname88
19-10-2017, 11:51
Infatti il futuro sarà avere connessioni in fibra o 5g e utilizzare la potenza di calcolo di server così da finalmente staccarci da tutta questa corsa inutile e frammentata all'hardware più potente
La corsa all'HW più potente ha un motivo, ossia la produttività che ogni utente ha necessità di raggiungere.

Usufruire di servizi online con l'aumentare delle utenze / richiesta finirebbe solamente a portare i gestori del servizio a puntare a ridurre al minimo le risorse a disposizione di ogni richiesta al maggior prezzo. Salvo poi dover essere costretto ad attendere i loro tempi bibblici per gli aggiornamenti HW dei servers e sottostare alle loro policy.

cdimauro
19-10-2017, 20:52
In realtà si parlava già da 10 anni di nanotubi di grafene, salvo poi fuoriuscire numerosi rumors su nuovi materia sintetici derivati da esso e migliori.
Ma questo è già una cosa diversa, e come dicevo non si sa ancora se sarà fattibile.

Le mie affermazioni, invece, riguardavano la Legge di Moore, e quindi la dimensione dei transistor, e direi che non c'è proprio nulla da fare se non prendere atto fra una decina d'anni lo scaling dei transistor sarà sostanzialmente finito.
Che non cambierà molto lo diceva qualche utente anche per la situazione x86, dove Intel doveva essere già al limite a livello di micro architettura, salvo poi annunciarne un altra nuova di zecca all'uscita di Ryzen.
Ero io quell'utente, e se non ricordo male rispondevo proprio a te. Comunque non ricordi bene, e francamente al momento non ho tempo né voglia di andare a cercare quel post.
Infatti il futuro sarà avere connessioni in fibra o 5g e utilizzare la potenza di calcolo di server così da finalmente staccarci da tutta questa corsa inutile e frammentata all'hardware più potente
Non puoi risolvere tutto così. Ci sono compiti che è meglio realizzare localmente, perché i tempi di risposta della rete sarebbero in ogni caso enormi.

GTKM
19-10-2017, 21:05
Infatti il futuro sarà avere connessioni in fibra o 5g e utilizzare la potenza di calcolo di server così da finalmente staccarci da tutta questa corsa inutile e frammentata all'hardware più potente

Cioè il ritorno ai mainframe. Solo sotto steroidi.

E poi non vedo perché non dovrei avere la possibilità di fare le MIE elaborazioni in casa mia, senza mandare roba in giro per Internet.

nickname88
19-10-2017, 22:17
Ma questo è già una cosa diversa, e come dicevo non si sa ancora se sarà fattibile.

Le mie affermazioni, invece, riguardavano la Legge di Moore, e quindi la dimensione dei transistor, e direi che non c'è proprio nulla da fare se non prendere atto fra una decina d'anni lo scaling dei transistor sarà sostanzialmente finito.

In teoria l'anno scorso è stato prodotto un transistor da 1nm, considerando TSMC che vuole già produrre a 3nm direi che 10 anni sono pochi.
E il tutto sperando che l'asticella del limite nel frattempo non si sposti ulteriormente.

Parlando del grafene nessuno sà con certezza se è fattibile o meno però di certo è poco probabile che non lo sia, questo mistero serve solo a puro scopo commerciale per poter continuare ad attingere il più possibile dal silicio economicamente parlando, così come la situazione automobilistica. Quando arriverà il momento dubito che i produttori verranno colti impreparati a lungo.

Detto questo il discorso era più improntato sui limiti dell'IPC per core dei prodotti x86, dove non mi sembra che la miniaturizzazione sia sempre stata la protagonista di tutto.

cdimauro
19-10-2017, 22:31
In teoria l'anno scorso è stato prodotto un transistor da 1nm, considerando TSMC che vuole già produrre a 3nm direi che 10 anni sono pochi.
Sempre tenendo conto della Legge di Moore, se la dimensione dei transistor si dimezza ogni due anni, vuol dire che in 10 anni diventerà 1/32.

Inoltre TSMC misura diversamente i transistor. Al contrario di Intel.

Quest'ultima ha parlato di scendere a 5nm, ed eventualmente 3nm. Direi che dovremmo esserci col 1/32 di cui sopra.

Anche perché un atomo di Silicio (https://it.wikipedia.org/wiki/Silicio) ha un diametro di 0,42nm, ma non è che si potrà raggiungere questo limite: ci sono sempre gli effetti quantistici che diventano via via sempre più dominanti, fino a quando sarà fisicamente impossibile realizzare un transistor proprio a causa loro. Ecco perché le previsioni si fermano a 3nm (SE ci arriveremo).
E il tutto sperando che l'asticella del limite nel frattempo non si sposti ulteriormente.
Ne dubito, se le dimensioni degli atomi rimangono le stesse. ;)
Parlando del grafene nessuno sà con certezza se è fattibile o meno però di certo è poco probabile che non lo sia, questo mistero serve solo a puro scopo commerciale per poter continuare ad attingere il più possibile dal silicio economicamente parlando, così come la situazione automobilistica. Quando arriverà il momento dubito che i produttori verranno colti impreparati a lungo.
Sono tanti, ma veramente tanti anni che ne parla. Io ormai aspetto prove concrete, perché i proclami sono troppo facili.

nickname88
19-10-2017, 22:44
Ne dubito, se le dimensioni degli atomi rimangono le stesse. ;)
Si ma forse si troverà il modo di contrastare sempre più efficacemente questi effetti. La dimensione degli atomi è sotto il mezzo nm come detto da te. Fino ad ora realizzarne 1 di transistors a 1nm è stato possibile, poi vedremo.

Sono tanti, ma veramente tanti anni che ne parla. Io ormai aspetto prove concrete, perché i proclami sono troppo facili.Le prove concrete dovrai aspettarle nel momento in cui il mercato deciderà che avranno spremuto a fondo i guadagni dal silicio.

Eventuali prodotti al grefene anche solamente annunciati oggi creerebbero difficoltà al mercato ed ai produttori delle soluzioni basate sul silicio, così come al business legato al petrolio. Quindi terranno il tutto sotto il solito alone di mistero fino a che gli converrà.

cdimauro
20-10-2017, 05:33
Si ma forse si troverà il modo di contrastare sempre più efficacemente questi effetti.
Stiamo già provando a contrastare gli effetti della meccanica quantistica, ma a certe dimensioni sarà lei a prendere il sopravvento e a impedire il funzionamento stesso dei transistor.
La dimensione degli atomi è sotto il mezzo nm come detto da te. Fino ad ora realizzarne 1 di transistors a 1nm è stato possibile, poi vedremo.
1nm, come già detto, bisogna vedere come si misura. Io preferisco attenermi alle misure di Intel, che in genere sono quelle più corrette.

In ogni caso se veramente fosse possibile utilizzare ogni singolo atomo come se fosse un transistor, avremmo un'altra decina d'anni a disposizione per arrivarci.

La Legge di Moore è in ogni caso destinata a morire.
Le prove concrete dovrai aspettarle nel momento in cui il mercato deciderà che avranno spremuto a fondo i guadagni dal silicio.
Il silicio è sempre più difficile e costoso da spremere (le ultime notizie sugli investimenti delle fonderie, passate di recente, dovresti averle lette anche tu), per cui dovrebbero sbrigarsi col grafene e investirci di più.
Eventuali prodotti al grefene anche solamente annunciati oggi creerebbero difficoltà al mercato ed ai produttori delle soluzioni basate sul silicio, così come al business legato al petrolio. Quindi terranno il tutto sotto il solito alone di mistero fino a che gli converrà.
Come già detto, già adesso investire sul silicio costa troppo. Poi dimentichi un altro fattore molto importante: chi arriverà per primo sul mercato avrà trovato la gallina dalle uova d'oro (SE le previsioni fossero rispettate ovviamente), per cui tutti hanno interesse a essere pionieri in materia, per sopravanzare gli altri.

Non si tengono tenute nascoste tecnologie quando soffri già una forte competizione: non ha senso, e sarebbe da masochisti autolesionisti.

nickname88
20-10-2017, 08:18
Come già detto, già adesso investire sul silicio costa troppoSe continuano a spremere vuol dire che non siamo ancora arrivati al punto di essere sconveniente farlo.

Poi dimentichi un altro fattore molto importante: chi arriverà per primo sul mercato avrà trovato la gallina dalle uova d'oro (SE le previsioni fossero rispettate ovviamente), per cui tutti hanno interesse a essere pionieri in materia, per sopravanzare gli altri.
Quindi mi vuoi dire che tutti i prodotti attualmente sul mercato generalmente parlando rappresentano tutti quanti il top della tecnologia ?

Introdurre immediatamente nuove soluzioni serve solo a bruciare il mercato per poi non riuscire più a rientrare nei costi. E su questo ci sono sempre interessi comuni e accordi indiretti da parte di tutte le aziende.

cdimauro
22-10-2017, 07:45
E' per questo che vorrei ben altre prove per misurare le prestazioni di questi processori. ;)
Se continuano a spremere vuol dire che non siamo ancora arrivati al punto di essere sconveniente farlo.
Non ancora, infatti, ma soprattutto vuol dire pure che non esiste un'alternativa al momento.
Quindi mi vuoi dire che tutti i prodotti attualmente sul mercato generalmente parlando rappresentano tutti quanti il top della tecnologia ?
Non tutti. Ad esempio ritengo che i produttori di hard disk stiano centellinandoci lo spazio, incrementandolo soltanto un po' alla volta durante gli anni.

Tutti hanno sviluppato simili soluzioni tecnologiche allo scopo, e per questo non ha senso per loro farsi la guerra.
Introdurre immediatamente nuove soluzioni serve solo a bruciare il mercato per poi non riuscire più a rientrare nei costi. E su questo ci sono sempre interessi comuni e accordi indiretti da parte di tutte le aziende.
Non sappiamo ancora nulla dei costi di eventuali nuove tecnologie, per cui è difficile fare delle valutazioni.

Ma nel campo della micro-elettronica sono ancora tutti alla caccia del sostituto del silicio. E qui, veramente, chi arriverà per primo con una VALIDA (e conveniente) alternativa, creerà un solco enorme con tutti gli altri, e ne guadagnerà tantissimo.