PDA

View Full Version : Microsoft starebbe sviluppando chip ARM proprietari come fatto da Apple. Addio ad Intel?


Redazione di Hardware Upg
19-12-2020, 14:01
Link alla notizia: https://www.hwupgrade.it/news/cpu/microsoft-starebbe-sviluppando-chip-arm-proprietari-come-fatto-da-apple-addio-ad-intel_94295.html

Un rapporto di Bloomberg non confermato ma basato su fonti interne riservate Microsoft punterebbe il dito sulla possibilità che a Redmond si stia già sviluppando un chip ARM di proprietà abbandonando l'idea di Intel e seguendo la strada di Apple. Sarà davvero così?

Click sul link per visualizzare la notizia.

xarz3
19-12-2020, 14:10
Ma fa soldi coi servizi, non con l hardware, tanto più ora nell era del Cloud e di azure.

Non vedo perché dovrebbe addirittura farsi un processore in casa, semmai dovrebbe fare in modo che Windows supporti pienamente arm in maniera simile a quanto fatto da apple.

A quel punto sarà il mercato a scegliere l architettura vincente

demon77
19-12-2020, 14:26
Non vedo perché dovrebbe addirittura farsi un processore in casa, semmai dovrebbe fare in modo che Windows supporti pienamente arm in maniera simile a quanto fatto da apple.


E' in corso una rivoluzione.
E comunque si tratta di SOC che integrano parecchie cose quindi farsi il proprio ha i suoi bei vantaggi.

NickNaylor
19-12-2020, 14:50
intel è la prossima kodak ma gli azionisti non sembrano aver ancora metabolizzato la cosa.

NickNaylor
19-12-2020, 14:53
Ma fa soldi coi servizi, non con l hardware, tanto più ora nell era del Cloud e di azure.

Non vedo perché dovrebbe addirittura farsi un processore in casa, semmai dovrebbe fare in modo che Windows supporti pienamente arm in maniera simile a quanto fatto da apple.

A quel punto sarà il mercato a scegliere l architettura vincente

magari faranno dei processori per i propri prodotti ed eventualmente forniranno i reference design a terzi

Takuya
19-12-2020, 14:55
intel è la prossima kodak ma gli azionisti non sembrano aver ancora metabolizzato la cosa.

Spero proprio di no, il passaggio ad ARM significherà quasi sicuramente la presenza di bootloader bloccati anche nei desktop e nei notebook.

Sarà la fine del software libero.

Riky1979
19-12-2020, 14:56
Apple ha tutto il suo interesse a creare un sistema sempre più chiuso per avere il massimo controllo dei suoi prodotti con tutto ottimizzato etc etc.
Fece un tentativo di imitare Microsoft cedendo la licenza del SO negli anni 90, mi ricordo i "mac" di CHL, ma fu una meteora e tutto tornò nella mani di Apple in poco tempo.

Windows non è mai stato vincolato ad un hardware specifico e questo è stato un bene con MsDOS che non si legò in maniera indissolubile con IBM ai tempi dei primi pc. Questo ha creato un vantaggio di diffusione di Win, ed anche il lato debole di avere migliaia di configurazioni diverse di pc.

Se andasse a produrre le cpu internamente mi chiedo come la prenderebbero tutti quanti a partire da Intel per passare ad AMD ma anche HP Dell etc.

Di sicuro scatterebbero delle azioni antitrust per scindere Microsoft in più compagnie e sarebbero anni di azioni legali con problemi per tutti.

Immagino che il vincitore sarebbe Linux che potrebbe essere sostenuto da tutti gli esclusi Microsoft ovvero Intel AMD e i produttori pc come HP Dell. Potrebbe essere l'occasione per creare una versione veramente facile da usare al pari di windows per utonti, non mi dite che è facile da usare per la massa perchè non è cosi, è migliorato molto nel tempo ma non come windows pensato per la massa enorme.

Esiste poi il mercato enorme dei software: CAD, software di calcolo etc hanno la loro predilizione di Windows e Linux, se si trovassero a dover seguire windows su macchine chiuse credo che opterebbero per convincere i clienti a passare a Linux.

Io la vedo alla fine come una news per dare uno scossone ad Intel, ma anche AMD, per fare cpu più competitive ed anche accordi commerciali migliori che una vera volontà di fare cpu in casa, a meno che si intenda di soluzioni specifiche come soluzioni microsoft di googlehome, amazonfireTV, lavagne interattive etc e non pc.

Sandro kensan
19-12-2020, 14:58
Volevo segnalare la notizia boom di ieri ovvero che DJI è stata bannata dal Governo USA.

pengfei
19-12-2020, 15:13
Dovrebbe essere più sulla falsariga di Amazon e i suoi processori Graviton che di Apple, e se anche facessero chip custom per portatili quasi sicuramente userebbero core ARM standard

Riky1979
19-12-2020, 15:19
Dovrebbe essere più sulla falsariga di Amazon e i suoi processori Graviton che di Apple, e se anche facessero chip custom per portatili quasi sicuramente userebbero core ARM standard

Non conosco le vendite dei Surface, sono comparabili con quelle dei MacBook?

Se sono piccole percentuali per fare un prodotto standard ha senso investire risorse per averlo in casa o non sarebbe meglio cercare un prodotto sul mercato?

Inoltre si innescherebbe il sospetto che le CPU MS siano comunque ottimizzate o meglio che Win per ARM sia ottimizzato per le CPU Ms, non che sia un mercato enorme per ora ma potrebbe creare dissidi non solo con Intel+AMD ma anche con gli altri produttori ARM anche se il core è su altri prodotti.

Alfhw
19-12-2020, 15:22
Apple ha tutto il suo interesse a creare un sistema sempre più chiuso per avere il massimo controllo dei suoi prodotti con tutto ottimizzato etc etc.
Fece un tentativo di imitare Microsoft cedendo la licenza del SO negli anni 90, mi ricordo i "mac" di CHL, ma fu una meteora e tutto tornò nella mani di Apple in poco tempo.

Windows non è mai stato vincolato ad un hardware specifico e questo è stato un bene con MsDOS che non si legò in maniera indissolubile con IBM ai tempi dei primi pc. Questo ha creato un vantaggio di diffusione di Win, ed anche il lato debole di avere migliaia di configurazioni diverse di pc.

Se andasse a produrre le cpu internamente mi chiedo come la prenderebbero tutti quanti a partire da Intel per passare ad AMD ma anche HP Dell etc.

Di sicuro scatterebbero delle azioni antitrust per scindere Microsoft in più compagnie e sarebbero anni di azioni legali con problemi per tutti.

Immagino che il vincitore sarebbe Linux che potrebbe essere sostenuto da tutti gli esclusi Microsoft ovvero Intel AMD e i produttori pc come HP Dell. Potrebbe essere l'occasione per creare una versione veramente facile da usare al pari di windows per utonti, non mi dite che è facile da usare per la massa perchè non è cosi, è migliorato molto nel tempo ma non come windows pensato per la massa enorme.

Esiste poi il mercato enorme dei software: CAD, software di calcolo etc hanno la loro predilizione di Windows e Linux, se si trovassero a dover seguire windows su macchine chiuse credo che opterebbero per convincere i clienti a passare a Linux.

Io la vedo alla fine come una news per dare uno scossone ad Intel, ma anche AMD, per fare cpu più competitive ed anche accordi commerciali migliori che una vera volontà di fare cpu in casa, a meno che si intenda di soluzioni specifiche come soluzioni microsoft di googlehome, amazonfireTV, lavagne interattive etc e non pc.

Non conosco le vendite dei Surface, sono comparabili con quelle dei MacBook?

Se sono piccole percentuali per fare un prodotto standard ha senso investire risorse per averlo in casa o non sarebbe meglio cercare un prodotto sul mercato?

Inoltre si innescherebbe il sospetto che le CPU MS siano comunque ottimizzate o meglio che Win per ARM sia ottimizzato per le CPU Ms, non che sia un mercato enorme per ora ma potrebbe creare dissidi non solo con Intel+AMD ma anche con gli altri produttori ARM anche se il core è su altri prodotti.

Quotone ad entrambi i post.

Riky1979
19-12-2020, 15:25
Volevo segnalare la notizia boom di ieri ovvero che DJI è stata bannata dal Governo USA.

Non mi è ben chiara se la notizia si riferisca al ban di DJI per l'uso da parte di enti statali sia federali che nazionali come vigili del fuoco, polizia locale etc o se sia riferito ad un ban in stile huawei.

Del ban dei produttori di droni cinesi dal mercato istituzionale si sapeva già, si sperava in una rinascita di Parrot nel caso ma non pare sarà cosi.

Se è un ban più generale allora sarà un duro colpo per DJI, ma potrebbe anche essere per Yuneec se si estendesse (e li il logo intel ha sempre fatto bella vista) il ban.

joe4th
19-12-2020, 15:42
@Riky1979

E' in stile huawei:

https://www.theverge.com/2020/12/18/22188789/dji-ban-commerce-entity-list-drone-china-transaction-blocked

Sandro kensan
19-12-2020, 15:52
Non mi è ben chiara se la notizia si riferisca al ban di DJI per l'uso da parte di enti statali sia federali che nazionali come vigili del fuoco, polizia locale etc o se sia riferito ad un ban in stile huawei.

Si parla sempre di Entity list come per Huawei. Per cui anche le aziende italiane o occidentali che commerciassero con DJI finirebbero a loro volta nella Entity list come succede con un buco nero.

https://www.gizmochina.com/2020/12/19/us-govt-adds-dji-to-entity-list/

https://www.theverge.com/2020/12/18/22190097/dji-blacklist-ban-xinjiang-entity-list-trump

US Govt adds DJI to Entity List; DJI says users can continue to buy its products

Takuya
19-12-2020, 15:58
Volevo segnalare la notizia boom di ieri ovvero che DJI è stata bannata dal Governo USA.

Copione già visto con recentemente con Huawei, negli anni '80 con la Toshiba e una decina di anni fa con la divisione energia di Alstom. Solo che stavolta le aziende coinvolte hanno dietro un colosso come la Cina, vediamo se gli USA ci riusciranno di nuovo con i loro atti pirateschi.

Sandro kensan
19-12-2020, 16:13
Che si sappia Hesselblad che è di proprietà di DJI avrà lo stesso ban?

Gringo [ITF]
19-12-2020, 16:33
I chip proprietari di Microsoft, servono solo per un modello il Surface Pro X basato su ARM, deve uscire il Surface Pro X 2 è logico che ci metterà un nuovo processore ARM, anche il Surface Pro 1 aveva il suo ARM di Microsoft, costruito da Qualcomm ma sempre suo era.

ciolla2005
19-12-2020, 16:56
Hanno già fallito con i telefoni, ora le CPU...

Comunque Intel non si trova in una bella posizione...

Se tutti i big, stanno virando di ARM...

LMCH
19-12-2020, 17:10
Al momento Microsoft non ha bisogno di proporre una "sua" cpu o SoC o SiP per portatili, 2-in-1, desktop o server.
MA deve averne una "sua" per tener testa ad Amazon sul cloud e tutto quello che vi è collegato.
Amazon AWS ha investito molto su Graviton perché, considerando quanti processori usa nei suoi data center, tenendo anche conto dei requisiti di buona parte del software che ci gira sopra, ha molta convenienza nel progettare da se le cpu che le servono, ottimizzandole per l'uso che ne deve fare.
Questo le permette di ridurre i costi di acquisto e gestione e quindi può essere più competitiva e/o avere margini di guadagno maggiori rispetto alla concorrenza (e specialmente nei confronti di Microsoft Azure).
A questo punto, per non rischiare di essere buttati fuori mercato, anche Microsoft e Google dovranno rispondere con strategie simili per quel che riguarda i rispettivi cloud.
Sarà molto interessante, specialmente se si considera che anche Alibaba sta lavorando a fare da se (puntando su Risc V nel suo caso).
Intel ed AMD rischiano seriamente di perdere una notevole quota di mercato.

nickname88
19-12-2020, 17:43
Intel ed AMD rischiano seriamente di perdere una notevole quota di mercato.AMD ? Nel settore server è molto più indietro rispetto ad intel e nel mercato notebook quasi assente.
Meglio, vorrà dire che torneranno a dedicarsi al mondo desktop.

pachainti
19-12-2020, 17:51
intel è la prossima kodak ma gli azionisti non sembrano aver ancora metabolizzato la cosa.

Si lo penso anche io. Ormai è il tramonto per le vecchie architetture x86, x86_64. Il presente è ARM e il futuro RISC-V.

coschizza
19-12-2020, 18:34
intel è la prossima kodak ma gli azionisti non sembrano aver ancora metabolizzato la cosa.
Il più grande produttore del mondo? Se vuole può cambiare e passare a arm in una settimana

nessuno29
19-12-2020, 19:14
Praticamente rinnegano la fortuna di windows bene.

Ago72
19-12-2020, 21:08
Secondo me invece è tramontata la filosofia del unica CPU per ogni settore. per quasi 30 anni abbiamo visto il monopolio x86. Oggi si sta virando a diversi tipi di microprocessori a seconda dell'ambito di utilizzo, mobile, computer, data center. E in questi casi è normale che vi siano delle sovrapposizioni tra le varie aree.
Intel, come del resto AMD, è probabile che andranno verso un ridimensionamento. O meglio verso un riposizionamento in settore data center e per quanto riguarda AMD console.

In un certo senso, è un ritorno al passato

AlexSwitch
19-12-2020, 21:50
Secondo me invece è tramontata la filosofia del unica CPU per ogni settore. per quasi 30 anni abbiamo visto il monopolio x86. Oggi si sta virando a diversi tipi di microprocessori a seconda dell'ambito di utilizzo, mobile, computer, data center. E in questi casi è normale che vi siano delle sovrapposizioni tra le varie aree.
Intel, come del resto AMD, è probabile che andranno verso un ridimensionamento. O meglio verso un riposizionamento in settore data center e per quanto riguarda AMD console.

In un certo senso, è un ritorno al passato

This... E' il commento più sensato che ho letto finora... La parola chiave della strategia adottata da Apple, ma che anche Microsoft vuole palesemente perseguire su Surface e Server ( per il momento ) è: customizzazione!
Le parole pronunciate dal portavoce Microsoft in merito alla notizia, esprimono un concetto perfettamente sovrapponibile a quello perseguito da Apple per tanto tempo e che ha raggiunto con Apple Silicon: controllo verticale delle proprie soluzioni e prodotti da ottenere con una stretta integrazione tra piattaforma hardware e OS in modo che vengano garantite sia la performance che l'autonomia.
Come girerebbe un Windows on Arm su un SoC altamente customizzato e con specifiche ben definite e note a Microsoft fin dal momento in cui viene messo su " carta "?
Ciò non vuol dire smettere di sviluppare, in un futuro più o meno lontano, per x86, ma sarà meno rilevante.
Perchè se è vero che la maggior parte dei profitti Microsoft oggi provengono da software e servizi, un domani potrebbero essere benissimo aumentati dalla vendita di soluzioni hardware e software specificatamente create e garantite per Windows e il suo ecosistema di servizi cloud e software. Una manna per il mercato business/office che sarà in futuro sempre più " mobile ".
Tutto ciò Intel ( soprattutto ) e AMD lo stanno realizzando in questo ultimo periodo e si stanno accorgendo del rischio, soprattutto ( ancora ) per Intel, di vedersi fortemente ridimensionati come peso strategico e nei proventi.

AlexSwitch
19-12-2020, 21:59
Il più grande produttore del mondo? Se vuole può cambiare e passare a arm in una settimana

E perchè finora non lo ha fatto?
Perchè ha preferito macinare profitti da posizioni di rendita, piuttosto che progettare un futuro per x86?
Ha venduto per anni tonnellate di CPU con incrementi prestazionali minimi tra una generazione e l'altra, facendosele pagare a peso d'oro... poi quando si è rotto l'orologino " Tick-Tock " si è trovata in difficoltà a rimanere competitiva...

NickNaylor
19-12-2020, 22:48
Il più grande produttore del mondo? Se vuole può cambiare e passare a arm in una settimana

è proprio questa l'analogia con kodak, anche quella era la più grande compagnia al mondo in campo fotografico e sembrava impossibile che potesse smaterializzarsi nel nulla, ma ha tirato un botto con l'arrivo del digitale che ancora oggi è rimasto il cratere.

demon77
19-12-2020, 23:04
E perchè finora non lo ha fatto?
Perchè ha preferito macinare profitti da posizioni di rendita, piuttosto che progettare un futuro per x86?
Ha venduto per anni tonnellate di CPU con incrementi prestazionali minimi tra una generazione e l'altra, facendosele pagare a peso d'oro... poi quando si è rotto l'orologino " Tick-Tock " si è trovata in difficoltà a rimanere competitiva...

Un po' sarà stata fortuna che le cose abbiano preso in passato una determinata strada, anche per via del fatto che ARM è nata nel 1983 quando comunque i processori x86 già macinavano da qualche anno ed avevano un certo vantaggio anche tecnologico.. sta di fatto che se sei una delle pochissime ad avere licenza per produrre X86 di certo sfrutti la cosa, sarebbe stata ben stupida a non farlo.

Il resto è storia: x86 ha comandato di brutto e forse adesso assisteremo ad un cambio di scena.

E' ovvio che intel volendo ha tutto ciò che serve per sfornare SOC ARM di primissimo ordine. Il punto adesso è vedere che piega prendono le cose ed avere la lungimiranza di muoversi per tempo.

LMCH
20-12-2020, 01:04
AMD ? Nel settore server è molto più indietro rispetto ad intel e nel mercato notebook quasi assente.
Meglio, vorrà dire che torneranno a dedicarsi al mondo desktop.
AMD è più piccola di Intel, anche se in valori assoluti "perde di meno", è una batosta di quelle serie. Inoltre una volta che ARM prende piede lato cloud, inevitabilmente ci saranno nuovi prodotti basati su ARM anche su notebook e desktop che andranno a competere con gli x86.

LMCH
20-12-2020, 02:05
Il più grande produttore del mondo? Se vuole può cambiare e passare a arm in una settimana

Veramente produce già ora un sacco di chip marchiati Intel con cpu ARM sia a 10nm che a 14nm. Il suo problema è che la concorrenza li produce già a 7 e 5 nm

cdimauro
20-12-2020, 07:01
intel è la prossima kodak ma gli azionisti non sembrano aver ancora metabolizzato la cosa.
Ma anche no. Se c'è una cosa che Intel ha saputo fare in questi anni è diversificare. Infatti il business legato ai suoi processori ormai incide all'incirca sul 50% dei suoi bilanci.
Spero proprio di no, il passaggio ad ARM significherà quasi sicuramente la presenza di bootloader bloccati anche nei desktop e nei notebook.

Sarà la fine del software libero.
Mi pare strano. Sono che ARM viene incensata qui da alcuni fanatici del software diversamente libero, e se fosse questa la situazione sarebbe come passare dalla padella alla brace...
Se andasse a produrre le cpu internamente mi chiedo come la prenderebbero tutti quanti a partire da Intel per passare ad AMD ma anche HP Dell etc.

Di sicuro scatterebbero delle azioni antitrust per scindere Microsoft in più compagnie e sarebbero anni di azioni legali con problemi per tutti.
Non credo proprio, visto che Microsoft è interessata soltanto ad alcuni settori che la coinvolgono direttamente: server in primis, e secondariamente i suoi prodotti Surface.

Gli altri produttori che usano Windows non hanno nulla da temere.
Io la vedo alla fine come una news per dare uno scossone ad Intel, ma anche AMD, per fare cpu più competitive ed anche accordi commerciali migliori che una vera volontà di fare cpu in casa, a meno che si intenda di soluzioni specifiche come soluzioni microsoft di googlehome, amazonfireTV, lavagne interattive etc e non pc.
No, non servirà come scossone né a Intel né ad AMD.

Semplicemente Microsoft ha delle particolari esigenze, che ritiene di poter soddisfare meglio con dei chip custom. Come hanno fatto altri (Amazon, Alibaba) nelle stesse condizioni.
Dovrebbe essere più sulla falsariga di Amazon e i suoi processori Graviton che di Apple, e se anche facessero chip custom per portatili quasi sicuramente userebbero core ARM standard
Esattamente.
Al momento Microsoft non ha bisogno di proporre una "sua" cpu o SoC o SiP per portatili, 2-in-1, desktop o server.
MA deve averne una "sua" per tener testa ad Amazon sul cloud e tutto quello che vi è collegato.
Amazon AWS ha investito molto su Graviton perché, considerando quanti processori usa nei suoi data center, tenendo anche conto dei requisiti di buona parte del software che ci gira sopra, ha molta convenienza nel progettare da se le cpu che le servono, ottimizzandole per l'uso che ne deve fare.
Questo le permette di ridurre i costi di acquisto e gestione e quindi può essere più competitiva e/o avere margini di guadagno maggiori rispetto alla concorrenza (e specialmente nei confronti di Microsoft Azure).
A questo punto, per non rischiare di essere buttati fuori mercato, anche Microsoft e Google dovranno rispondere con strategie simili per quel che riguarda i rispettivi cloud.
Sarà molto interessante, specialmente se si considera che anche Alibaba sta lavorando a fare da se (puntando su Risc V nel suo caso).
This. IMO questa è la giusta chiave di lettura.
Intel ed AMD rischiano seriamente di perdere una notevole quota di mercato.
Intel è messa meglio, perché è da anni che diversifica il suo business. Ovviamente risentirà di tutti questi abbandoni di partnership, ma è da tempo che si sta costruendo delle alternative per non rimanere col cerino in mano.

AMD ci sta provando di recente, vedi acquisizione di Xilinx, ma ne ha ancora di strada da fare per proporre prodotti integrati e competitivi.
Si lo penso anche io. Ormai è il tramonto per le vecchie architetture x86, x86_64. Il presente è ARM e il futuro RISC-V.
x86/x64 è destinata a rimanere, come pure ARM.

RISC-V è una scommessa, ma gli altri due ecosistemi sono talmente radicati e pervasivi che ci vorrà parecchio tempo per essere soppiantati. Posto che RISC-V riesca a dimostrarsi competitivo in tutti i settori in quei due operano, ed è una cosa tutt'altro che scontata (al momento il vantaggio primario è rappresentato dall'assenza di licenze / royalty da pagare).
E perchè finora non lo ha fatto?
Perchè ha preferito macinare profitti da posizioni di rendita, piuttosto che progettare un futuro per x86?
Semplice: perché su x86 ha il totale controllo. E finché ci saranno zilioni di software per questa architettura, potrà continuare ancora ad affidarsi ai suoi prodotti.
Ha venduto per anni tonnellate di CPU con incrementi prestazionali minimi tra una generazione e l'altra, facendosele pagare a peso d'oro... poi quando si è rotto l'orologino " Tick-Tock " si è trovata in difficoltà a rimanere competitiva...
Gli incrementi prestazionali ci sono stati, ma il suo problema è che è stata (ed è ancora) troppo legata ai suoi processi produttivi, mentre gli altri produttori di CPU/SoC/chip scaricano su aziende esterne (TSMC, Samsung) tali rischi.
Veramente produce già ora un sacco di chip marchiati Intel con cpu ARM sia a 10nm che a 14nm. Il suo problema è che la concorrenza li produce già a 7 e 5 nm
Esattamente. Intel ha perso l'enorme vantaggio tecnologico che aveva coi suoi processi produttivi, e adesso è addirittura costretta a rincorrere. Cose che nessuno avrebbe potuto immagine.

E ne paga le conseguenze...

zappy
20-12-2020, 09:49
questi tentativi di creare degli ambienti chiusi e monopolistici dove tu paghi un prodotto per essere usato tu dalla ditta che te lo vende vanno combattuti in ogni modo.

NickNaylor
20-12-2020, 10:44
Ma anche no. Se c'è una cosa che Intel ha saputo fare in questi anni è diversificare. Infatti il business legato ai suoi processori ormai incide all'incirca sul 50% dei suoi bilanci.

a me non sembra proprio: tutta la loro baracca è legata a x86, gli altri prodotti che fanno riescono a piazzarli solo in vendita abbinata ma non hanno nessun ramo tecnologico che possa camminare realmente con le proprie gambe.

AlexSwitch
20-12-2020, 11:33
questi tentativi di creare degli ambienti chiusi e monopolistici dove tu paghi un prodotto per essere usato tu dalla ditta che te lo vende vanno combattuti in ogni modo.

Perchè ambienti chiusi? E poi monopolio dove? Se MS si farà il suo bravo e buono SoC per per i suoi Server e hardware Surface non significa per forza che Windows diventerà un ambiente chiuso...
Microsoft vuole la sua fetta di mercato di prodotti specifici dove è lei a dettare le specifiche e ritagliarci sopra la versione di Windows più appropriata e stop... Di certo non smetterà di sviluppare per x86 e di lavorare con Intel e AMD; se questo percorso che ha appena iniziato avrà un certo successo ci può stare benissimo che in un futuro prossimo x86 diventi, come ho già scritto, meno rilevante ( per MS ).
BTW il messaggio lanciato da Apple e MS ( che hanno in comune lo sviluppo di OS e hardware ) è chiaro: non vogliamo più guinzagli al collo da parte dei produttori di CPU. Non vogliamo più aspettare i loro tempi e pagare i loro ritardi adeguandoci alle loro politiche.

386DX40
20-12-2020, 12:43
Imho verrebbe da chiedersi in cosa l'utente consumatore possa beneficiare da questi nuovi scenari che sembrano aprirsi. Il mondo smartphone ha gia' dimostrato che il discorso "prezzo" non e' un valido motivo, anzi si ritorna alla vecchia logica per cui sarebbe meglio pagare piu' caro un prodotto per poi poterne fare anche un pezzo di arredamento e non galassie monolitiche dietro contratti vari che gravitano attorno al logiche immodificabili strettamente connesse a servizi online. Se anche i PC sono destinati a diventare "grossi smartphone" con unici SoC chiusi legati strettamente ai software...

AlexSwitch
20-12-2020, 13:23
Imho verrebbe da chiedersi in cosa l'utente consumatore possa beneficiare da questi nuovi scenari che sembrano aprirsi. Il mondo smartphone ha gia' dimostrato che il discorso "prezzo" non e' un valido motivo, anzi si ritorna alla vecchia logica per cui sarebbe meglio pagare piu' caro un prodotto per poi poterne fare anche un pezzo di arredamento e non galassie monolitiche dietro contratti vari che gravitano attorno al logiche immodificabili strettamente connesse a servizi online. Se anche i PC sono destinati a diventare "grossi smartphone" con unici SoC chiusi legati strettamente ai software...

Però vale anche il ragionamento inverso... Che benefici hanno portato tanti anni di " Legacy " in ambito PC? E in quale misura?
Un Windows senza il fardello della compatibilità verso hardware e tecnologie tutto sommato " vecchie " come girerebbe?
Sarebbe così limitante per la maggior parte dell'utenza PC avere un dispositivo Surface con un SoC/architettura fatta in casa da MS, che le garantisse buone prestazioni per qualche anno ( almeno più di 5 ) senza l'assillo di aggiornare l'hardware con tutto ciò che si porta dietro?
Inoltre, come si è visto con M1 di Apple, utilizzare un SoC/architettura proprietari non significa necessariamente chiudersi su se stessi escludendo l'utenza dall'uso di altri OS.
Credo che per comprendere correttamente questa mossa di MS sia necessario abbandonare le logiche da hardware geek e da overclockers, visto che restringono l'orizzonte ad una nicchia di utenti che badano solamente alla mera performance spendendo cifre rilevanti solamente per una GPU o CPU.

386DX40
20-12-2020, 13:58
Però vale anche il ragionamento inverso... Che benefici hanno portato tanti anni di " Legacy " in ambito PC? E in quale misura?
Un Windows senza il fardello della compatibilità verso hardware e tecnologie tutto sommato " vecchie " come girerebbe?
Sarebbe così limitante per la maggior parte dell'utenza PC avere un dispositivo Surface con un SoC/architettura fatta in casa da MS, che le garantisse buone prestazioni per qualche anno ( almeno più di 5 ) senza l'assillo di aggiornare l'hardware con tutto ciò che si porta dietro?
Inoltre, come si è visto con M1 di Apple, utilizzare un SoC/architettura proprietari non significa necessariamente chiudersi su se stessi escludendo l'utenza dall'uso di altri OS.
Credo che per comprendere correttamente questa mossa di MS sia necessario abbandonare le logiche da hardware geek e da overclockers, visto che restringono l'orizzonte ad una nicchia di utenti che badano solamente alla mera performance spendendo cifre rilevanti solamente per una GPU o CPU.

Imho per quel che vale la mia opinione, oggigiorno si potrebbe anche vivere su PC con un o.s. come XP, se fosse stato aggiornato teoricamente ovviamente impossibilmente fino ad oggigiorno. Non vedo o forse non conosco limiti tecnici che non avrebbero potuto allungarne ipoteticamente la vita per altre decadi con l'ovvio beneficio di avere o.s. che volassero letteralmente, come vola che so' un Win 98 su un Pentium 4 a 3Ghz e Directx 9 ben piu' lontano dalle architetture per cui era nato.
Se oggigiorno alcuni o.s. sono pesanti imho e' perchè in qualche modo si e' seguita la logica dell' estetica, della pesantezza legata a servizi cloud o legati comunque al web, il web browser e' diventato un benchmark piu' pesante di un vecchio 3DMark quasi.. allora la soluzione a questi problemi non dovrebbe forse essere ripensare il web come lo era negli anni 90, a mo' di libro fatto per lo piu' di testo e codice leggero low level, invece oggigiorno pagine web che richiedono octa-core, giga di ram, accelerazione hardware addirittura OpenGL o Direct3D per delle pagine web?
E a questo si aggiungono GUI che usano anch'esse accelerazioni di ogni tipo per cosa dissolvenze o trasparenze? Centinaia di processi in background per cosa? E stesso accade anche nel mondo open source non e' che sia molto meglio mi pare..

zappy
20-12-2020, 14:45
Perchè ambienti chiusi? E poi monopolio dove? Se MS si farà il suo bravo e buono SoC per per i suoi Server e hardware Surface non significa per forza che Windows diventerà un ambiente chiuso...
si, come no.
è ovvio che poi win girerebbe "bene" solo su hw "certificato ms" :rolleye: se non proprio SOLO su "hw ms"... con tutte le conseguenze del caso.

Imho per quel che vale la mia opinione, oggigiorno si potrebbe anche vivere su PC con un o.s. come XP, se fosse stato aggiornato .... Centinaia di processi in background per cosa?
E stesso accade anche nel mondo open source non e' che sia molto meglio mi pare..
concordo su tutto.
e la cosa più grave è che l'opensource sta andando dietro a queste cagate, anche a scapito di correggere bug e migliorare le funzionalità utili... :muro: :muro:
vedasi la demenziale moda delle icone monocromatiche (a 32 bit :muro: ) ovunque... la peste. :help:

386DX40
20-12-2020, 15:02
si, come no.
è ovvio che poi win girerebbe "bene" solo su hw "certificato ms" :rolleye: se non proprio SOLO su "hw ms"... con tutte le conseguenze del caso.


concordo su tutto.
e la cosa più grave è che l'opensource sta andando dietro a queste cagate, anche a scapito di correggere bug e migliorare le funzionalità utili... :muro: :muro:
vedasi la demenziale moda delle icone monocromatiche (a 32 bit :muro: ) ovunque... la peste. :help:

Si o vengono in mente i display moderni dei telefoni con icone che saranno ognuna a 1024x768 pixel (esagerando..:D) quando il mio monitor attuale ha una risoluzione simile.. :p
Sara' che come molti hanno vissuto gli anni 90, se ci si appassiona dell' hardware e software di quegli anni ci si impressiona di quanto fossero -già- capaci. Le schede video avevano accelerazione hardware appositamente per le GUI di allora che doveano solo accelerare il disegno delle finestre, icone, background e relativi movimenti nel modo piu' veloce possibile con clock da 70/80Mhz. E ci riuscivano benissimo, persino su o.s. preistorici come Win 3.1 e drivers che stavano su mezzo floppy disks. Qualche tempo fa ho installato una scheda video "moderna" (2013..:p) su un o.s. moderno e sebbene i drivers ultimi fossero gia' vecchi ci ha messo che so' tantissimi minuti per installarsi (solo drivers e pannello).. file da centinaia di megabytes di installazione per cosa non si sà.
Boh.. sarà che si invecchia forse.

zappy
20-12-2020, 15:19
Si o vengono in mente i display ...
Sara' che come molti hanno vissuto .... file da centinaia di megabytes di installazione per cosa non si sà.
è puro consumismo.
condito da stupidità. :muro:

Ago72
20-12-2020, 18:15
installazione per cosa non si sà.
Boh.. sarà che si invecchia forse.

Va bene il romanticismo, però non esageriamo altrimenti potrei dirti che excel alla fine fa poco di più di quello che faceva Lotus 1-2-3 (ovviamente è una iperbole).

La tua critica poi ci sta, spesso il costo dei dispositivi non giustifica lo sviluppo di un driver ad hoc, per cui si hanno questi driver omni-comprensivi, che incorporano il supporto per decine di schede. Rendendo pachidermica l'installazione e appesantendo inutilmente il sistema operativo.

Concordo anche che a volte si è esagerato con gli effetti grafici, ma in alcuni casi hanno migliorato e reso meno stantancante lavorare al computer.

PS
Io sul mio PC (80286) avevo Windows 2.0 e sinceramente lo ricordo come un incubo, bello per la novità, ma di fatto inutilizzabile se confrontato alle applicazioni native DOS.

386DX40
20-12-2020, 19:59
Va bene il romanticismo, però non esageriamo altrimenti potrei dirti che excel alla fine fa poco di più di quello che faceva Lotus 1-2-3 (ovviamente è una iperbole).

La tua critica poi ci sta, spesso il costo dei dispositivi non giustifica lo sviluppo di un driver ad hoc, per cui si hanno questi driver omni-comprensivi, che incorporano il supporto per decine di schede. Rendendo pachidermica l'installazione e appesantendo inutilmente il sistema operativo.

Concordo anche che a volte si è esagerato con gli effetti grafici, ma in alcuni casi hanno migliorato e reso meno stantancante lavorare al computer.

PS
Io sul mio PC (80286) avevo Windows 2.0 e sinceramente lo ricordo come un incubo, bello per la novità, ma di fatto inutilizzabile se confrontato alle applicazioni native DOS.

Sarà che sono sicuramente interessato da tempo piu' al retrocomputing che non all' hardware moderno per cui forse la mia visione e' relativamente di parte nell' elogiare l'hardware e software di una volta.
Ma la mia non e' una critica, semplicemente non riesco a vedere (forse e' un mio limite) dove e' il ritorno di una pesantezza che a prescindere dall' o.s sia open o closed source e a prescindere dall'hardware laddove quest'ultimo per specifiche tecniche dovrebbe far letteralmente volare qualsiasi cosa debba eseguire.. config con 32GB di DDR4, octa cores e gpu con migliaia di "core" e centinaia di watts loro stesse, consumi che manco un forno elettrico.. non e' che sia piu' dovuto a una mancanza di ottimizzazione e linguaggi di sviluppo sempre piu' high level e layers intermedi, framework, etc..? Anche su open source a meno di non scegliere le piu' scarne distribuzioni molti hanno GUI con le applicazioni piu' pesanti, effetti di ogni tipo accelerati via OpenGL per occupazioni di ram elevate e compatibilità limitata a meno di non avere drivers proprietari in alcuni casi o specifiche periferiche.
Un po' rimpiango quando gli sviluppatori necessitavano di trovare ogni modo per spremere il piu' possibile proprio per la limitatezza dell'hardware.
Sarei dell'idea che se per una settimana il mondo intero fosse obbligato ad usare dei PC 386 con tanto di processore numerico 387 alla fine riportando il web a livello testuale, i software di produttività su kernel a 16bit su msdos o Win 3.x, stampanti ad aghi, reimparando a programmare a bassissimo livello e compagnia cantante, tutto sommato alla fine si farebbero le stesse cose. Piu' lentamente forse ma non credo la produttività diminuirebbe di molto. Imho ovviamente.

Mechano
20-12-2020, 20:42
Conoscendo quella "bella" azienda sono sicuro che i Surface con il loro ARM saranno una schifezza ma lo compreranno in tanti!

Comunque fatti i soldoni oggi con tutta l'elettronica venduta per il lockdown, videoconferenze, smart working, didattica a distanza, era comunque nell'aria di fare cambiare tutti da x86 ad ARM, semplicemente perché il capitalismo si basa sul consumo continuo e compulsivo.

Quindi via di ewaste, perché ora si deve risparmiare energia grazie alle CPU ARM... Quindi anche ricomprare i software ottmizzati, ecc. ecc.

Ago72
20-12-2020, 20:48
Ma la mia non e' una critica, semplicemente non riesco a vedere (forse e' un mio limite) dove e' il ritorno di una pesantezza che a prescindere dall' o.s sia open o closed source e a prescindere dall'hardware laddove quest'ultimo per specifiche tecniche dovrebbe far letteralmente volare qualsiasi cosa debba eseguire..

Ai tempi del 386, l'HW costava tantissimo e il SW relativamente poco, per cui si investiva molto nel SW, in quanto il cliente non avrebbe avuto la possibilità di acquistare l'HW necessario.

Se la memoria non mi inganna, il coprocessore matematico 80287(*), costava quasi quanto la CPU originale. non potendo contare su una vasta adozione del coprocessore matematico, si cercava di spremere il più possibile dalla CPU. E stiamo parlando di CPU che al giorno d'oggi sarebbero costate tra i 700€ e i 1000€.

Pian piano i costi del HW sono crollati, aggiungere ram o camabiare CPU è diventato economico. Poi un marketing martellante, con immagini scintillati, ci ha portato a cambiare HW ogni anno. Anche perchè le innovazioni erano a cadenza annuale (l'introduzione dell'USB), l'avvento del PCI, etc...
Tutte innovazioni che portavano effettivamente dei miglioramenti (a volte solo estetici)

Per cui le software house, forti del fatto di poter contare su utenti disposti a cambiare l'HW, hanno smesso di ottimizzare il SW, risparmiando sullo sviluppo e aumentando i profitti.

Poi aggiungiamoci le scelte scellerate di MS. Oggi MS supporto ben 4 framework UWP; WPF; Windows Forms; Win32. E spesso un framework è stato abbandonato ancora a metà (come nel caso del passaggio da WPF a UWP). Questo inevitambilmente ha portato a degli appesantimenti. Tralasciando tutti gli altri framework (database, directx, PnP, ...) che si portano compatibilità vecchie di decenni.

(*)
Mi ricordo che non potendomi permettere l'80287, utilizzavo un programma che lo emulava, facendomi girare quei programmi che lo richiedevano... ovviamente con risultati pratici penosi, ma con il mio ego al massimo.

jepessen
20-12-2020, 21:52
Ho come l'impressione che stiano mirando piu' che altro alle CPU delle server farm Azure. Se volessero fare un chip ARM per PC ce ne sarebbero gia' diversi in giro, dati i numeri del surface non sarebbe economicamente vantaggioso farsene uno in casa secondo me.

biometallo
20-12-2020, 22:04
@jepessen beh è sostanzialmente quello che dicono le voci su cui è basata la notizia:

Microsoft Corp. sta lavorando su progetti di processori interni da utilizzare nei computer server che eseguono i servizi cloud dell'azienda, aggiungendo un impegno a livello di settore per ridurre la dipendenza dalla tecnologia dei chip di Intel Corp. Il più grande produttore di software del mondo sta utilizzando i progetti di Arm Ltd. per produrre un processore che verrà utilizzato nei suoi data center, secondo le persone che hanno familiarità con i piani. Sta anche esplorando l'utilizzo di un altro chip che potrebbe alimentare alcuni dei suoi personal computer Surface.
[...]
È più probabile che gli sforzi di Microsoft si traducano in un chip per server piuttosto che in uno per i suoi dispositivi Surface, sebbene quest'ultimo sia possibile, ha detto una delle persone

Licofir
20-12-2020, 22:20
Ogni giorno che passa penso che il PC sia morto, vuoi le schede grafiche/mining... vuoi consumi assolutamente folli per un dispositivo moderno e proiettato al futuro, vuoi la mancanza di produttori rispetto a qualche anno fa, vuoi perchè ormai le alternative sono svariate...

LMCH
20-12-2020, 23:00
@jepessen beh è sostanzialmente quello che dicono le voci su cui è basata la notizia:

Microsoft Corp. sta lavorando su progetti di processori interni da utilizzare nei computer server che eseguono i servizi cloud dell'azienda, aggiungendo un impegno a livello di settore per ridurre la dipendenza dalla tecnologia dei chip di Intel Corp. Il più grande produttore di software del mondo sta utilizzando i progetti di Arm Ltd. per produrre un processore che verrà utilizzato nei suoi data center, secondo le persone che hanno familiarità con i piani. Sta anche esplorando l'utilizzo di un altro chip che potrebbe alimentare alcuni dei suoi personal computer Surface.
[...]
È più probabile che gli sforzi di Microsoft si traducano in un chip per server piuttosto che in uno per i suoi dispositivi Surface, sebbene quest'ultimo sia possibile, ha detto una delle persone
Molto probabilmente continuerà ad appoggiarsi a Qualcomm per quel che riguarda i SoC basati su ARM per desktop/notebook/tablet, se non altro perché così anche gli altri produttori avranno modo di proporre prodotti simili basati su Windows per ARM.

cdimauro
21-12-2020, 05:38
questi tentativi di creare degli ambienti chiusi e monopolistici dove tu paghi un prodotto per essere usato tu dalla ditta che te lo vende vanno combattuti in ogni modo.
La discussione era interessante, finché non è arrivato uno che ha capito tutto dalla vita...
a me non sembra proprio: tutta la loro baracca è legata a x86, gli altri prodotti che fanno riescono a piazzarli solo in vendita abbinata ma non hanno nessun ramo tecnologico che possa camminare realmente con le proprie gambe.
Non sembra a te perché non t'informi, sebbene queste notizie passino puntualmente proprio in questo sito, quando vengono riportati i risultati delle trimestrali dell'azienda.
è puro consumismo.
condito da stupidità. :muro:
Allora tornatene nelle grotte, che le palafitte sono già roba troppo progredita per te.
Sarà che sono sicuramente interessato da tempo piu' al retrocomputing che non all' hardware moderno per cui forse la mia visione e' relativamente di parte nell' elogiare l'hardware e software di una volta.
Ma la mia non e' una critica, semplicemente non riesco a vedere (forse e' un mio limite) dove e' il ritorno di una pesantezza che a prescindere dall' o.s sia open o closed source e a prescindere dall'hardware laddove quest'ultimo per specifiche tecniche dovrebbe far letteralmente volare qualsiasi cosa debba eseguire.. config con 32GB di DDR4, octa cores e gpu con migliaia di "core" e centinaia di watts loro stesse, consumi che manco un forno elettrico.. non e' che sia piu' dovuto a una mancanza di ottimizzazione e linguaggi di sviluppo sempre piu' high level e layers intermedi, framework, etc..? Anche su open source a meno di non scegliere le piu' scarne distribuzioni molti hanno GUI con le applicazioni piu' pesanti, effetti di ogni tipo accelerati via OpenGL per occupazioni di ram elevate e compatibilità limitata a meno di non avere drivers proprietari in alcuni casi o specifiche periferiche.
Gli effetti lasciano il tempo che trovano (tipo le finestrelle sballonzolanti di Compiz et similia: braccia rubate all'agricoltura), ma ciò che hanno cercato di spiegarti è che i software moderni sono più pratici da usare, e quindi più produttivi. Hanno aggiunto man mano tante funzionalità e, sebbene siano divenuti molto più complessi, tale complessità è stata incapsulata in interfacce più semplici e intuitive per l'utenza. Ciò ha richiesto lo sviluppo di codice facente uso di più livelli di astrazione, e quindi richiedendo più risorse (memoria, CPU).

Comunque son cose di cui abbiamo già ampiamente discusso in passato.
Un po' rimpiango quando gli sviluppatori necessitavano di trovare ogni modo per spremere il piu' possibile proprio per la limitatezza dell'hardware.
Sarei dell'idea che se per una settimana il mondo intero fosse obbligato ad usare dei PC 386 con tanto di processore numerico 387 alla fine riportando il web a livello testuale, i software di produttività su kernel a 16bit su msdos o Win 3.x, stampanti ad aghi, reimparando a programmare a bassissimo livello e compagnia cantante, tutto sommato alla fine si farebbero le stesse cose. Piu' lentamente forse ma non credo la produttività diminuirebbe di molto. Imho ovviamente.
Io no: non rimpiango proprio nulla di quell'epoca, e sì: la produttività diminuirebbe non di molto, ma di MOLTISSIMO!

Ho iniziato circa 38 anni fa col BASIC, e sono passato velocemente al linguaggio macchina perché il BASIC era troppo limitato. Ma immagino che tu non abbia idea di come si programmasse in questo linguaggio, fra opcode table e calcolo degli offset dei salti relativi al PC: un inferno. E' il più basso livello di produttività che ci possa essere.

Fortunatamente dopo qualche anno sono arrivati i monitor, che consentivano di assemblare il codice, facendo risparmiando un sacco di tempo. Nulla di comparabile agli assemblatori veri e propri, ma era un enorme passo in avanti.

Poi arrivò l'era degli assemblatori, per l'appunto, e via con la scrittura di migliaia e migliaia di righe codice, anche facenti uso di macro. La produttività era aumentata di molto. Ma debuggare quel codice rimaneva pur sempre una piaga.

Fortunatamente arrivarono poi anche i debugger, che migliorano di molto la situazione, ma li si poteva utilizzare soltanto con applicazioni os-friendly. Se, come si faceva all'epoca per giochi et similia, si prendeva il controllo del sistema per spremere l'hardware come un limone, ti potevi scordare l'uso dei debugger e dovevi inventarti le tecniche più assurde per visualizzare alcune informazioni utili al debug. Un altro inferno, insomma.

Poi arrivò il Pascal... fiat lux! La produttività aumentò drasticamente. Specialmente con le versioni "Turbo" targate Borland, che erano una manna dal cielo grazie ai loro IDE integrati.

Dopo fu l'era di Windows. Quindi di Delphi e degli ambienti di sviluppo RAD, che consentivano di disegnare l'interfaccia grafica dell'applicazione trascinando comodamente elementi sullo schermo, impostandone gli attributi con qualche click o riempendo delle celle con qualche valore, e vedendo in tempo reale il risultato. Altro che luce: fu roba da rimanere abbagliati.

E così avanti fino all'arrivo di Python: il Quasar della programmazione. Con la shell interattiva (specialmente roba come DreamPie) puoi smanettare al volo con porzioni di codice, per verificare velocemente se l'idea che hai avuto funzioni, anziché aspettare il classico processo di scrivo-il-codice/compilo/eseguo/verifico-che-funzioni.

Ma tutta questa evoluzione nonché enorme aumento di produttività si paga in termini di risorse consumate.

E non c'è alcun "free lunch": non esiste nella maniera più assoluta che si possa tornare a programmare a basso, o addirittura a bassissimo livello, mantenendo simili livelli di produttività.

Quindi è bene prenderne atto e mettersi l'anima in pace.

In futuro si tornerà certamente a ottimizzare di più il codice, ma semplicemente perché la legge di Moore è destinata a morire. Quando il progresso tecnologico, che ha caratterizzato gli ultimi decenni, si fermerà, non rimarrà altro che cercare di sfruttare meglio quel che si ha. Ma ci vorrà ancora qualche decennio.

/OT.

the_joe
21-12-2020, 08:17
Sarà che sono sicuramente interessato da tempo piu' al retrocomputing che non all' hardware moderno per cui forse la mia visione e' relativamente di parte nell' elogiare l'hardware e software di una volta.
Ma la mia non e' una critica, semplicemente non riesco a vedere (forse e' un mio limite) dove e' il ritorno di una pesantezza che a prescindere dall' o.s sia open o closed source e a prescindere dall'hardware laddove quest'ultimo per specifiche tecniche dovrebbe far letteralmente volare qualsiasi cosa debba eseguire.. config con 32GB di DDR4, octa cores e gpu con migliaia di "core" e centinaia di watts loro stesse, consumi che manco un forno elettrico.. non e' che sia piu' dovuto a una mancanza di ottimizzazione e linguaggi di sviluppo sempre piu' high level e layers intermedi, framework, etc..? Anche su open source a meno di non scegliere le piu' scarne distribuzioni molti hanno GUI con le applicazioni piu' pesanti, effetti di ogni tipo accelerati via OpenGL per occupazioni di ram elevate e compatibilità limitata a meno di non avere drivers proprietari in alcuni casi o specifiche periferiche.
Un po' rimpiango quando gli sviluppatori necessitavano di trovare ogni modo per spremere il piu' possibile proprio per la limitatezza dell'hardware.
Sarei dell'idea che se per una settimana il mondo intero fosse obbligato ad usare dei PC 386 con tanto di processore numerico 387 alla fine riportando il web a livello testuale, i software di produttività su kernel a 16bit su msdos o Win 3.x, stampanti ad aghi, reimparando a programmare a bassissimo livello e compagnia cantante, tutto sommato alla fine si farebbero le stesse cose. Piu' lentamente forse ma non credo la produttività diminuirebbe di molto. Imho ovviamente.

Non posso credere che tu lo pensi veramente, non solo un 386/486 oggi non farebbero girare alcunché, ma sarebbe una vera tragedia a meno di ritornare a fare cose realmente basilari, prova a renderizzare una scena 3d o elaborare un filmato o anche solo una foto con un PIV e poi vedrai come corri a prendere un octa core con 32GB di RAM...
Posso dire che anche ai tempi dei 486 si lavorava, ma non certo con la produttività e la semplicità di oggi, anche solo un semplice programma di contabilità che teoricamente potrebbe girare senza interfaccia grafica, in realtà oggi offre infinite possibilità rispetto ai primi...

zappy
21-12-2020, 09:18
...Allora tornatene nelle grotte, che le palafitte sono già roba troppo progredita per te.
tipico commento standard chi non ha argomentazioni. :rolleyes:
oddio: "commento" è già un complimento...

cdimauro
21-12-2020, 09:24
Ho argomentato subito dopo, ma se nemmeno leggi quello che scrivo non è più un problema mio.

386DX40
21-12-2020, 10:40
Gli effetti lasciano il tempo che trovano (tipo le finestrelle sballonzolanti di Compiz et similia: braccia rubate all'agricoltura), ma ciò che hanno cercato di spiegarti è che i software moderni sono più pratici da usare, e quindi più produttivi. Hanno aggiunto man mano tante funzionalità e, sebbene siano divenuti molto più complessi, tale complessità è stata incapsulata in interfacce più semplici e intuitive per l'utenza. Ciò ha richiesto lo sviluppo di codice facente uso di più livelli di astrazione, e quindi richiedendo più risorse (memoria, CPU).

Comunque son cose di cui abbiamo già ampiamente discusso in passato.

Io no: non rimpiango proprio nulla di quell'epoca, e sì: la produttività diminuirebbe non di molto, ma di MOLTISSIMO!

Ho iniziato circa 38 anni fa col BASIC, e sono passato velocemente al linguaggio macchina perché il BASIC era troppo limitato. Ma immagino che tu non abbia idea di come si programmasse in questo linguaggio, fra opcode table e calcolo degli offset dei salti relativi al PC: un inferno. E' il più basso livello di produttività che ci possa essere.

Fortunatamente dopo qualche anno sono arrivati i monitor, che consentivano di assemblare il codice, facendo risparmiando un sacco di tempo. Nulla di comparabile agli assemblatori veri e propri, ma era un enorme passo in avanti.

Poi arrivò l'era degli assemblatori, per l'appunto, e via con la scrittura di migliaia e migliaia di righe codice, anche facenti uso di macro. La produttività era aumentata di molto. Ma debuggare quel codice rimaneva pur sempre una piaga.

Fortunatamente arrivarono poi anche i debugger, che migliorano di molto la situazione, ma li si poteva utilizzare soltanto con applicazioni os-friendly. Se, come si faceva all'epoca per giochi et similia, si prendeva il controllo del sistema per spremere l'hardware come un limone, ti potevi scordare l'uso dei debugger e dovevi inventarti le tecniche più assurde per visualizzare alcune informazioni utili al debug. Un altro inferno, insomma.

Poi arrivò il Pascal... fiat lux! La produttività aumentò drasticamente. Specialmente con le versioni "Turbo" targate Borland, che erano una manna dal cielo grazie ai loro IDE integrati.

Dopo fu l'era di Windows. Quindi di Delphi e degli ambienti di sviluppo RAD, che consentivano di disegnare l'interfaccia grafica dell'applicazione trascinando comodamente elementi sullo schermo, impostandone gli attributi con qualche click o riempendo delle celle con qualche valore, e vedendo in tempo reale il risultato. Altro che luce: fu roba da rimanere abbagliati.

E così avanti fino all'arrivo di Python: il Quasar della programmazione. Con la shell interattiva (specialmente roba come DreamPie) puoi smanettare al volo con porzioni di codice, per verificare velocemente se l'idea che hai avuto funzioni, anziché aspettare il classico processo di scrivo-il-codice/compilo/eseguo/verifico-che-funzioni.

Ma tutta questa evoluzione nonché enorme aumento di produttività si paga in termini di risorse consumate.

E non c'è alcun "free lunch": non esiste nella maniera più assoluta che si possa tornare a programmare a basso, o addirittura a bassissimo livello, mantenendo simili livelli di produttività.

Quindi è bene prenderne atto e mettersi l'anima in pace.

In futuro si tornerà certamente a ottimizzare di più il codice, ma semplicemente perché la legge di Moore è destinata a morire. Quando il progresso tecnologico, che ha caratterizzato gli ultimi decenni, si fermerà, non rimarrà altro che cercare di sfruttare meglio quel che si ha. Ma ci vorrà ancora qualche decennio.

/OT.

Ovviamente il mio discorso era involontariamente esagerato per sottolineare un'idea "teorica" forse un po' forzata che la produttività non sarebbe diminuita. Ovviamente non sarebbe possibile lavorare con la quantità di dati moderni con quelle macchine ma fondamentalmente la produttività oggigiorno ha assunto una strana definizione e non so se e' la stessa di allora.
Ricordo i linguaggi a basso livello per formazione informatica sebbene poi professionalmente abbia seguito altri percorsi professionali ma tra le lontane varie esperienze lavorative capitarono anche i PLC per l'automazione industriale e sebbene permettessero una scelta nel linguaggio all'interno del progetto stesso a seconda delle esigenze "alto livello", "livello grafico" e "livello basso" (bassissimo) in "stile" assembler che dovevano sfruttare il massimo dall' hardware paragonabile appunto alla potenza e disponibilita' di un 80386. Comprendo quindi che non sarebbe facile magari impensabile a livello di grandi aziende e server vari, ma senza andare indietro allo Z80 credo che in termini di utilizzo aziendale utente, gestionali vari esistevano e funzionavano come motori diesel gia' allora, i vari CAD e editing grafico avevano i loro software con interfacce grafiche intuitive, minimali e funzionali, la connettività esisteva con i limiti grandissimi di banda ma permetteva comunque uno scambio dei dati "essenziali". Basti guardare il web cosa e' diventato.. si e' ridotto enormemente la quantita' di informazione (testo) trasmessa per essere compensata da tonnellata di jscripts, grafica pesante che utilizza hw della gpu non penso per diventare "intuitiva" anzi.. alla fine e' quasi difficile intuire dove bisogna cliccare per sapere anche solo i Contatti di un'azienda. In confronto le prime homepage in HTML base con solo testo, BMP e GIF sembrano un passo avanti.
Non ho dubbi che molte persone abbiano avuto piu' facilità ad avvicinarsi alla tecnologia con questo accatastare di strati sempre piu' user friendly ma se gli hardware di oggi potessero parlare penso urlerebbero per quanto sono sovrasfruttati per fare (almeno lato utente/dipendente medio) le stesse cose.
Non dico di tornare necessariamente a Lotus 123, Turbo Pascal (di cui ho tanti ricordi :)), etc.. ma anche solo nell' epoca di Win 95 c'era gia' praticamente tutto. Ricordo software come Autocad nella dodicesima versione mi pare fosse, una ventina/trentina di floppy disks e si faceva di tutto era eccezionale.
I costi erano elevati? Sicuramente si pagava di piu' ma la qualità e soprattutto riparabilità era maggiore. Ho schede madri di quell'epoca che funzionano ancora, un computer high end consumava si e no 40W alla spina. :)
L'unica critica sui computer di quegli anni era spesso lato alimentazione.. ho visto alimentatori che lato PCB e componenti considerando il costo dei computer di allora davvero fanno rabbrividire.

The_ouroboros
21-12-2020, 10:41
Ma fa soldi coi servizi, non con l hardware, tanto più ora nell era del Cloud e di azure.


azure

386DX40
21-12-2020, 10:50
Non posso credere che tu lo pensi veramente, non solo un 386/486 oggi non farebbero girare alcunché, ma sarebbe una vera tragedia a meno di ritornare a fare cose realmente basilari, prova a renderizzare una scena 3d o elaborare un filmato o anche solo una foto con un PIV e poi vedrai come corri a prendere un octa core con 32GB di RAM...
Posso dire che anche ai tempi dei 486 si lavorava, ma non certo con la produttività e la semplicità di oggi, anche solo un semplice programma di contabilità che teoricamente potrebbe girare senza interfaccia grafica, in realtà oggi offre infinite possibilità rispetto ai primi...
Non intendevo far girare un browser o software recente su un 386SX a 20Mhz ovviamente ma i "browser" esistevano gia' nell' epoca di allora sebbene fossero magari piu' nell' ottica "testuale". I software CAD come dicevo esistevano e ricordo che con un 80486DX4 a 120Mhz (AMD continuo' a spremere il 486) e Win 95, si facevano rendering magari a basse risoluzioni ma con tutto quello che era necessario poter fare. Non e' che per fare (es.) un pezzo meccanico complesso fosse necessario OpenGL 4.x perche' debba essere realistico. Allora il rendering era via cpu e bastava un punto luce e gouraud shading e bastava. Alla fine non era il realismo del pezzo quello che contava. ;)

The_ouroboros
21-12-2020, 10:58
anche con una barca con remi puoi arrivare negli states ma non per questo la devi fare :stordita:

386DX40
21-12-2020, 11:13
Si ma se scegliamo di andare con un transatlantico e servono mille volte il carburante, mille volte il personale, la formazione, satelliti, etc.. e poi salta un condensatore in una scheda dei computer di bordo e bisogna rinviare il viaggio.. beh.. non a caso le scialuppe di salvataggio non devono essere molto tecnologiche.
Per fare un esempio off-off-topic.. vedevo una recensione di un feature phone moderno (quelli con la tastiera per chi non lo sa :p) su youtube fatta da una persona che evidentemente era troppo abituata agli smartphone. Era incredibile come non riuscisse a entrare o uscire dai menu concettualmente al punto che in alcuni momenti diceva "non so cosa fare.. non so come entrare o uscire in un applicazione" quasi che mi e' preso lo sconforto.

;)

GiovanniGTS
21-12-2020, 11:28
Un conto è divertirsi con il retrocomputer un conto è affermare che la produttività ne risentirebbe poco in caso di ritorno al passato.

Provate ad utilizzare uno dei primi photoshop e a confrontarlo con gli ultimi, provate a fare la stessa cosa con un software di editing video, provate a confrontare un programma di contabilità degli anni 90 con uno recente, tanto per citare alcuni esempi.

Per quanto mi riguarda la potenza non è mai abbastanza, vorrei convertire in h265 i miei video in un paio di giorni e non in un paio di mesi (tempo che non ho), vorrei fare backup in 30 secondi invece che in 3 ore.

Spero vivamente che gli x86 abbiano vita lunga. Nel general purpose in ambito PC e notebook vade retro ARM... a meno che non vogliate usarli
tipo netbook e per scaricare scemenze dai vari market...

AlexSwitch
21-12-2020, 12:05
Non intendevo far girare un browser o software recente su un 386SX a 20Mhz ovviamente ma i "browser" esistevano gia' nell' epoca di allora sebbene fossero magari piu' nell' ottica "testuale". I software CAD come dicevo esistevano e ricordo che con un 80486DX4 a 120Mhz (AMD continuo' a spremere il 486) e Win 95, si facevano rendering magari a basse risoluzioni ma con tutto quello che era necessario poter fare. Non e' che per fare (es.) un pezzo meccanico complesso fosse necessario OpenGL 4.x perche' debba essere realistico. Allora il rendering era via cpu e bastava un punto luce e gouraud shading e bastava. Alla fine non era il realismo del pezzo quello che contava. ;)

Dimentichi che è stata proprio l'industria in generale nel corso dei decenni scorsi a pretendere sempre più potenza di calcolo, perché appunto migliorava notevolmente la produttività e la fattibilità di determinati progetti.
Altrimenti ancora oggi si lavorerebbe ancora con la grafica in wireframe, e si dovrebbe aspettare ore per avere un rendering ( mi ricordo che sul mio 486 DX 33 un rendering di un semplice modello animato su Autocad 3D ci mise la bellezza
di 12 ore per 5 secondi ad 800x600 ).
Non sarebbero meno esistite aziende come SGI con le sue workstation grafiche ad alte prestazioni che costavano l'ira di Dio, ma nemmeno le prime schede acceleratrici 2D per PC.

386DX40
21-12-2020, 12:20
Dimentichi che è stata proprio l'industria in generale nel corso dei decenni scorsi a pretendere sempre più potenza di calcolo, perché appunto migliorava notevolmente la produttività e la fattibilità di determinati progetti.
Altrimenti ancora oggi si lavorerebbe ancora con la grafica in wireframe, e si dovrebbe aspettare ore per avere un rendering ( mi ricordo che sul mio 486 DX 33 un rendering di un semplice modello animato su Autocad 3D ci mise la bellezza
di 12 ore per 5 secondi ad 800x600 ).
Non sarebbero meno esistite aziende come SGI con le sue workstation grafiche ad alte prestazioni che costavano l'ira di Dio, ma nemmeno le prime schede acceleratrici 2D per PC.

Vero ma non lo dimentico semmai molte cose sono state "rese disponibili" come offerta al consumatore ma quella "potenza" non e' detto fosse poi necessaria. Se per renderizzare un pezzo 3D ci si metteva n ore, nel frattempo non si stava certo ad aspettare la fine della renderizzazione, il lavoro continuava altrove.
Chi e' appassionato (se passione si puo' definire piu' che altro un saltuario hobby) di retrocomputing sà che e' tutt'altro che divertente.. :p
Spesso proprio perche' siamo un po' diventati "comodi" nel pretendere di non dover configurare nulla, che tutto funzioni al primo avvio etc... invece allora c'era da leggersi manuali, schede madri con decine e decine di jumpers ne sbagliavi uno bruciavi la cpu (mi capitò) che magari a suo tempo sara' costata tante centinaia di migliaia di lire.
Ma non credo che user friendly sia sinonimo di produttività né che velocità sia sinonimo di tempo libero per collegarmi al post dell'utente sopra che citava l'encoding H265. Tutta la tecnologia moderna promette da decenni "tempo libero" ma se sento amici o parenti NESSUNO ha piu' tempo libero.. ma come.. la tecnologia non doveva liberarci dalla fatica di fare quello che prima ci portava via tempo? E quel tempo come e' stato reinvestito? In altro lavoro. Ergo chi ci ha guadagnato? E se la vita necessita di tecnologia anche solo per alzarsi dal letto quando questa viene meno anche solo per un calo di corrente cosa facciamo? Imho minimalismo dovrebbe e potrebbe essere una buona vecchia "nuova" frontiera per l'hw e il sw futuro.. l'hardware di oggi potrebbe fare cento mille volte quello che fa.

The_ouroboros
21-12-2020, 12:21
Spero vivamente che gli x86 abbiano vita lunga. Nel general purpose in ambito PC e notebook vade retro ARM... a meno che non vogliate usarli
tipo netbook e per scaricare scemenze dai vari market...

esistono superpc arm :stordita:

The_ouroboros
21-12-2020, 12:22
Si ma se scegliamo di andare con un transatlantico e servono mille volte il carburante, mille volte il personale, la formazione, satelliti, etc..

Ma non servono mesi di viaggio :D

386DX40
21-12-2020, 12:36
Un conto è divertirsi con il retrocomputer un conto è affermare che la produttività ne risentirebbe poco in caso di ritorno al passato.


Un programma di editing o di CAD degli anni 90 magari pesava 20MB, uno di oggi quanto pesa da compresso? 1GB? 2GB? Antivirus il cui file di installazione sono centinaia di megabytes compressi. Un antivirus... un sw che dovrebbe quasi essere "trasparente" al sistema proprio per non pesare.
Pur consapevole che software moderni abbiano magari complesse funzioni "comode" che una volta avrebbe richiesto molto piu' lavoro manuale per ottenere simili risultati,alla fine se si parla di utente comune, di persona qualunque, tutto era fatto allora come e' fatto oggigiorno. Vedere il meteo con una semplice grafica fatta con le macchine magari SGI degli anni 90 e vederlo oggi con animazioni 3D in alta risoluzione alla fine cambia qualcosa? Mah.. produttività in questo caso significa indicare se il giorno dopo piove o no.. magari lo studio dei modelli matematici beneficia di grandi potenze di calcolo ma per il resto.. Se oggi persino molti film del cinema si fanno in Cg quasi completamente se non completamente questo era necessario?
Forse i disegnatori avranno vita piu' facile nel gestire modelli 3D invece che disegnare manualmente nelle serie animate o registi non avere a che fare con attori e solo con problemi tecnici ma alla fine come proprio il cinema ha dimostrato, la Cg avanzatissima non e' andata di pari passo con l'arte della regia, della sceneggiatura, della recitazione del messaggio etc.. anzi.. a volte pare compensi la mancanza di tutto il resto. Oppure un'altra spiegazione e' che si vive l'epoca della quantità piu' che della qualità. E allora ai fini della quantità tutto questo magari e' utile.

386DX40
21-12-2020, 12:40
Ma non servono mesi di viaggio :D

Magari il viaggio viene rinviato per mesi per reinstallare e testare la scheda con il condensatore nuovo che ovviamente non verra' solo sostituito (non sia mai) verra' cambiata mezza nave. :D
Chissà alla fine potrebbe anche essere che arriva prima la "tecnologia" del 1600. :p

The_ouroboros
21-12-2020, 14:19
Magari il viaggio viene rinviato per mesi per reinstallare e testare la scheda con il condensatore nuovo che ovviamente non verra' solo sostituito (non sia mai) verra' cambiata mezza nave. :D
Chissà alla fine potrebbe anche essere che arriva prima la "tecnologia" del 1600. :p

e la risata odierna me la sono fatta :)

Ago72
21-12-2020, 14:31
Un programma di editing o di CAD degli anni 90 magari pesava 20MB, uno di oggi quanto pesa da compresso? 1GB? 2GB?

Secondo me hai portato gli unici esempio che dimostrano il contraio. Parlo dei CAD che conosco un pochino.
Il rendering in tempo reale, la parametrizzazione, la possibilità di inserire calcoli strutturali con visualizzazione grafica (Metodo degli elementi finiti) ed altre, non che tutti gli aiuti per gli snap point, hanno aumentato la produttività in modo drammatico.
Già all'epoca dell'Autocad 12 esistevano CAD che incorporavano queste funzioni, ma necessitavano workstation, che solo le grandi aziende per progetti particolari potevano permettersi.

Autocad 12, non era parametrico, lavorava solo con il wireframe e l'editing delle primitive non era il massimo.

Infine il peso della installazione è relativa, anche perchè ormai quando installi AutoCAD, in realtà stai installando almeno altri 3/4 programmi.

PS.

Da come descrivi il PLC secondo me era un S5...

386DX40
21-12-2020, 16:07
e la risata odierna me la sono fatta :)

Ovviamente era volutamente un esempio per sorridere, non dico certo che un galeone fosse meglio o piu' veloce di una moderna nave. :)

386DX40
21-12-2020, 16:21
Secondo me hai portato gli unici esempio che dimostrano il contraio. Parlo dei CAD che conosco un pochino.
Il rendering in tempo reale, la parametrizzazione, la possibilità di inserire calcoli strutturali con visualizzazione grafica (Metodo degli elementi finiti) ed altre, non che tutti gli aiuti per gli snap point, hanno aumentato la produttività in modo drammatico.
Già all'epoca dell'Autocad 12 esistevano CAD che incorporavano queste funzioni, ma necessitavano workstation, che solo le grandi aziende per progetti particolari potevano permettersi.

Autocad 12, non era parametrico, lavorava solo con il wireframe e l'editing delle primitive non era il massimo.

Infine il peso della installazione è relativa, anche perchè ormai quando installi AutoCAD, in realtà stai installando almeno altri 3/4 programmi.

PS.

Da come descrivi il PLC secondo me era un S5...

Sono passati un po' troppi anni per ricordarmi bene ma ricordo comunque alla fine per progetti che disegnavamo (forse non erano troppo complessi) e considerando le macchine allora gia' middle-low end, tutto sommato non ho un brutto ricordo a livello di funzionalità. Poi magari grandi aziende che sviluppavano enormi progetti trovavano mille difetti che non ho le competenze per valutare ma resta che contestualizzando storicamente molto e' stato fatto magari con fatica anche con quei software.
Sul peso di quelli moderni, il fatto stesso che installando un software si installi praticamente una marea di dipendenze da altri sw, frameworks, e chi piu' ne ha piu' ne metta, la dice lunga sulla leggerezza finale. Poi non e' detto che un software debba essere leggero ma alla fine anche il costo dell' hardware impatterà sull' azienda quando a volte per certe aziende (non di CAD, aziende generiche) basterebbero persino dei vecchi Pentium 4 per poter lavorare perche' la produttività si misura su altri parametri. Poi aggiungo IMHO.. non credo di avere opinioni certe, sono solo opinioni odierne.
I PLC allora erano S7-300, relativi panels e software di supervisione. Di per se eccezionali ma un ambito professionale molto vasto.

GiovanniGTS
21-12-2020, 20:14
esistono superpc arm :stordita:

Buon lavoro con quelli allora, io continuo con PC e notebook. In ambito "personal" ribadisco: vade retro ARM.

GiovanniGTS
21-12-2020, 20:22
Un programma di editing o di CAD degli anni 90 magari pesava 20MB, uno di oggi quanto pesa da compresso? 1GB? 2GB? Antivirus il cui file di installazione sono centinaia di megabytes compressi. Un antivirus... un sw che dovrebbe quasi essere "trasparente" al sistema proprio per non pesare.
Pur consapevole che software moderni abbiano magari complesse funzioni "comode" che una volta avrebbe richiesto molto piu' lavoro manuale per ottenere simili risultati,alla fine se si parla di utente comune, di persona qualunque, tutto era fatto allora come e' fatto oggigiorno. Vedere il meteo con una semplice grafica fatta con le macchine magari SGI degli anni 90 e vederlo oggi con animazioni 3D in alta risoluzione alla fine cambia qualcosa? Mah.. produttività in questo caso significa indicare se il giorno dopo piove o no.. magari lo studio dei modelli matematici beneficia di grandi potenze di calcolo ma per il resto.. Se oggi persino molti film del cinema si fanno in Cg quasi completamente se non completamente questo era necessario?
Forse i disegnatori avranno vita piu' facile nel gestire modelli 3D invece che disegnare manualmente nelle serie animate o registi non avere a che fare con attori e solo con problemi tecnici ma alla fine come proprio il cinema ha dimostrato, la Cg avanzatissima non e' andata di pari passo con l'arte della regia, della sceneggiatura, della recitazione del messaggio etc.. anzi.. a volte pare compensi la mancanza di tutto il resto. Oppure un'altra spiegazione e' che si vive l'epoca della quantità piu' che della qualità. E allora ai fini della quantità tutto questo magari e' utile.

Non concordo su nulla, l'arte e la capacità individuali sono cose diverse dall'avere strumenti più semplici, più veloci, con migliaia di opzioni.
Esempio facile facile: un filmino per matrimoni di 30 anni fa e un filmino per matrimoni oggi. A parità di capacità individuali, oggi il risultato finale è infinitamente più appagante e lo si può ottenere in un tempo nettamente minore. Forse dovresti ripassare il concetto di produttività.

Oggi le capagità di storage sono molto più grandi del passato e la velocità di download nettamente superiore. Quindi, facendo un rapporto tra mb dei programmi e capacità di storage, ne emerge che OGGI i programmi pesano relativamente MENO rispetto al passato. Stesso discorso per il download, per scaricare 20 MB nel 1998 ci mettevi una vita, per scaricare oggi 1 GB quando ci metti? Ergo, in termini relativi oggi la situazione è nettamente migliorata.

386DX40
21-12-2020, 20:51
Non concordo su nulla, l'arte e la capacità individuali sono cose diverse dall'avere strumenti più semplici, più veloci, con migliaia di opzioni.
Esempio facile facile: un filmino per matrimoni di 30 anni fa e un filmino per matrimoni oggi. A parità di capacità individuali, oggi il risultato finale è infinitamente più appagante e lo si può ottenere in un tempo nettamente minore. Forse dovresti ripassare il concetto di produttività.

Anche con opinioni diverse, ognuna e' legittima ci mancherebbe. :)
Imho l'aumento di strumenti e della facilita' del risultato equivale esattamente a quel concetto di quantità > qualità a prescindere che nell' esempio suddetto il film del matrimonio oggi possa essere fatto per ore in 4K HDR, sebbene capisco che l' editing sarà piu' facile per l' azienda. Ma forse la logica del ricordo IMHO e' che gli si dà importanza inversamente proporzionalmente alla quantità e la qualita' finale come risultato non e' detto che dipenda dallo strumento comunque come nel cinema. Una singola foto ricordo scolorita che so' scattata da una Polaroid di una vecchia serata tra amici al bar assume un valore proprio perche' magari e' l'unico ricordo rimasto di quel momento. Sul discorso della banda moderna, era tutto in proporzione. Quando una pagina web pesava magari meno di 100 Kbytes un modem 56K sembrava essere piu' che abbastanza perche' il web era per lo piu' testo appunto.

EDIT: forse si e' finiti off topic, mi sono chiare comunque le varie opinioni sulla tecnologia moderna e quella vecchia. :)

cdimauro
22-12-2020, 08:59
Ovviamente il mio discorso era involontariamente esagerato per sottolineare un'idea "teorica" forse un po' forzata che la produttività non sarebbe diminuita. Ovviamente non sarebbe possibile lavorare con la quantità di dati moderni con quelle macchine ma fondamentalmente la produttività oggigiorno ha assunto una strana definizione e non so se e' la stessa di allora.
Ricordo i linguaggi a basso livello per formazione informatica sebbene poi professionalmente abbia seguito altri percorsi professionali ma tra le lontane varie esperienze lavorative capitarono anche i PLC per l'automazione industriale e sebbene permettessero una scelta nel linguaggio all'interno del progetto stesso a seconda delle esigenze "alto livello", "livello grafico" e "livello basso" (bassissimo) in "stile" assembler che dovevano sfruttare il massimo dall' hardware paragonabile appunto alla potenza e disponibilita' di un 80386. Comprendo quindi che non sarebbe facile magari impensabile a livello di grandi aziende e server vari, ma senza andare indietro allo Z80 credo che in termini di utilizzo aziendale utente, gestionali vari esistevano e funzionavano come motori diesel gia' allora, i vari CAD e editing grafico avevano i loro software con interfacce grafiche intuitive, minimali e funzionali, la connettività esisteva con i limiti grandissimi di banda ma permetteva comunque uno scambio dei dati "essenziali". Basti guardare il web cosa e' diventato.. si e' ridotto enormemente la quantita' di informazione (testo) trasmessa per essere compensata da tonnellata di jscripts, grafica pesante che utilizza hw della gpu non penso per diventare "intuitiva" anzi.. alla fine e' quasi difficile intuire dove bisogna cliccare per sapere anche solo i Contatti di un'azienda. In confronto le prime homepage in HTML base con solo testo, BMP e GIF sembrano un passo avanti.
Non ho dubbi che molte persone abbiano avuto piu' facilità ad avvicinarsi alla tecnologia con questo accatastare di strati sempre piu' user friendly ma se gli hardware di oggi potessero parlare penso urlerebbero per quanto sono sovrasfruttati per fare (almeno lato utente/dipendente medio) le stesse cose.
Non dico di tornare necessariamente a Lotus 123, Turbo Pascal (di cui ho tanti ricordi :)), etc.. ma anche solo nell' epoca di Win 95 c'era gia' praticamente tutto. Ricordo software come Autocad nella dodicesima versione mi pare fosse, una ventina/trentina di floppy disks e si faceva di tutto era eccezionale.
Ti hanno già risposto, e concordo: ci facevi di tutto coi limiti che avevi all'epoca, però. Oggi abbiamo sia hardware molto più potente che ti consente di fare di più, sia software che ne trae vantaggio. Tutto assieme consente una produttività di gran lunga migliore rispetto al passto.
I costi erano elevati? Sicuramente si pagava di piu' ma la qualità e soprattutto riparabilità era maggiore. Ho schede madri di quell'epoca che funzionano ancora, un computer high end consumava si e no 40W alla spina. :)
L'unica critica sui computer di quegli anni era spesso lato alimentazione.. ho visto alimentatori che lato PCB e componenti considerando il costo dei computer di allora davvero fanno rabbrividire.
Anche su questo non concordo. Oggi l'hardware costa molto, ma molto meno rispetto al passato, e infatti è molto di più diffuso. Telefonini hanno potenze di calcolo da supercomputer del passato, e sono di gran lunga più facili da usare rispetto ai PC di decenni fa.

Tutto questo è progresso. E comodità.
Spesso proprio perche' siamo un po' diventati "comodi" nel pretendere di non dover configurare nulla, che tutto funzioni al primo avvio etc... invece allora c'era da leggersi manuali, schede madri con decine e decine di jumpers ne sbagliavi uno bruciavi la cpu (mi capitò) che magari a suo tempo sara' costata tante centinaia di migliaia di lire.
Appunto. Ti sei risposto già da solo con quest'esempio: hardware molto più costoso, e difficile da configurare. Il progresso ha migliorato entrambe le cose, espandendo il mercato alla maggior parte della popolazione. Questo è vero progresso, IMO.
Ma non credo che user friendly sia sinonimo di produttività né che velocità sia sinonimo di tempo libero per collegarmi al post dell'utente sopra che citava l'encoding H265. Tutta la tecnologia moderna promette da decenni "tempo libero" ma se sento amici o parenti NESSUNO ha piu' tempo libero.. ma come.. la tecnologia non doveva liberarci dalla fatica di fare quello che prima ci portava via tempo? E quel tempo come e' stato reinvestito? In altro lavoro. Ergo chi ci ha guadagnato? E se la vita necessita di tecnologia anche solo per alzarsi dal letto quando questa viene meno anche solo per un calo di corrente cosa facciamo? Imho minimalismo dovrebbe e potrebbe essere una buona vecchia "nuova" frontiera per l'hw e il sw futuro.. l'hardware di oggi potrebbe fare cento mille volte quello che fa.
Questo è un discorso che non ha nulla a che vedere con quello che facevamo prima. Ciò che facciamo adesso col maggior tempo libero attiene alla sfera privata. La tecnologia ci ha permesso di migliorare tante, certamente per il meglio (vedi sopra), e tanto basta per me.
Un programma di editing o di CAD degli anni 90 magari pesava 20MB, uno di oggi quanto pesa da compresso? 1GB? 2GB?
Hai dimenticato che sono aumentate le risoluzioni e la profondità colore, che hanno contribuito ad aumentare notevolmente gli asset di un'applicazione. Aggiungiamoci pure il fatto che le immagini statiche adesso mostrano pure delle animazioni, e si fa presto il conto di quanto spazio in più sia stato richiesto.
Antivirus il cui file di installazione sono centinaia di megabytes compressi. Un antivirus... un sw che dovrebbe quasi essere "trasparente" al sistema proprio per non pesare.
Qui dimentiche che un tempo c'erano pochi virus, mentre adesso ne abbiamo nell'ordine delle centinaia di migliaia (o forse milioni).
Pur consapevole che software moderni abbiano magari complesse funzioni "comode" che una volta avrebbe richiesto molto piu' lavoro manuale per ottenere simili risultati,
Beh, è proprio così.
alla fine se si parla di utente comune, di persona qualunque, tutto era fatto allora come e' fatto oggigiorno.
Ma anche no. Dai un computer in mano a qualcuno adesso, e poi dagli un PC vecchio col vecchio software, e chiedigli di fare le stesse cose. E poi vedrai le differenze.
Vedere il meteo con una semplice grafica fatta con le macchine magari SGI degli anni 90 e vederlo oggi con animazioni 3D in alta risoluzione alla fine cambia qualcosa? Mah.. produttività in questo caso significa indicare se il giorno dopo piove o no..
Direi sì: fra il militare che agitava le mani su un grafico con delle freccette rosse o blu (quello c'era, tanti anni fa: freccette colorate appiccicate alla cartina) e un grafico 3D che ti fa vedere in tempo reale cosa succederà, inclusa l'evoluzione delle previsioni per alcune ore, con tanto di animazioni che ti mostrano esattamente cosa aspettarsi, la differenza è abissale.
magari lo studio dei modelli matematici beneficia di grandi potenze di calcolo ma per il resto.. Se oggi persino molti film del cinema si fanno in Cg quasi completamente se non completamente questo era necessario?
Direi di sì. Guardati la parte finale di Nightmare, giusto per fare un esempio, quando il caro vecchio Freddy si porta negli inferi la mamma di uno dei protagonisti: la scena è assolutamente ridicola a causa del manichino usato per la mammina. Prova a immaginare oggi cosa si potrebbe fare con la CG...
Forse i disegnatori avranno vita piu' facile nel gestire modelli 3D invece che disegnare manualmente nelle serie animate o registi non avere a che fare con attori e solo con problemi tecnici ma alla fine come proprio il cinema ha dimostrato, la Cg avanzatissima non e' andata di pari passo con l'arte della regia, della sceneggiatura, della recitazione del messaggio etc.. anzi.. a volte pare compensi la mancanza di tutto il resto. Oppure un'altra spiegazione e' che si vive l'epoca della quantità piu' che della qualità. E allora ai fini della quantità tutto questo magari e' utile.
Stai facendo un discorso troppo generalista e, soprattutto, soggettivo. Oggi la tecnologia ci consente di fare cose inimmaginabili rispetto al passato. Poi che ciò possa essere usato male è un altro paio di maniche, oltre al fatto che rimane una tua personalissima opinione.
Sul peso di quelli moderni, il fatto stesso che installando un software si installi praticamente una marea di dipendenze da altri sw, frameworks, e chi piu' ne ha piu' ne metta, la dice lunga sulla leggerezza finale.
Mi pare anche normale.

Ho sviluppato applicazioni dotate di GUI interamente in assembly ai tempi dell'Amiga, CUI toolkit misto Turbo Pascal/assembly/linguaggio macchina che emulavano la stessa interfaccia del Turbo Pascal 4.0 (e poi successivi di Borland), GUI toolkit riscritti da zero che usavano il famigerato Mode 13h delle VGA/MCGA (320x200 a 256 colori), GUI per applicazioni Delphi, GUI per telefonini Windows Phone 7 e poi Android (che era peggio di WP7 a livello di sviluppo), e infine applicazioni WPF scritte in (Iron)Python.

Indovina quali hanno richiesto meno tempo di sviluppo E (congiunzione) sono più produttive...

Il consumo delle risorse è di gran lunga superiore rispetto a quelle del passato? Senz'altro. Ma oggi abbiamo hardware in grado di fare girare in scioltezza il tutto (anzi, con la CPU che continua a lavorare a bassi regimi).
Poi non e' detto che un software debba essere leggero ma alla fine anche il costo dell' hardware impatterà sull' azienda
Solo che oggi l'hardware costa di gran lunga di meno alle aziende, proprio grazie al progresso.
quando a volte per certe aziende (non di CAD, aziende generiche) basterebbero persino dei vecchi Pentium 4 per poter lavorare perche' la produttività si misura su altri parametri. Poi aggiungo IMHO.. non credo di avere opinioni certe, sono solo opinioni odierne.
Non sei un programmatore, ma se lo fossi ti chiederei di convertire per Amiga l'ultima app che ho realizzato in IronPython/WPF. Ovviamente il tutto interamente in assembly Motorola 68K. All'epoca, peraltro, sono stato fortunato perché ho usato il s.o. v3.0 dell'Amiga e il Motorola 68020, che erano già di gran lunga meglio rispetto ai precedenti 1.3 e 68000 (e ovviamente le applicazioni consumavano più risorse. "Casualmente"...).

Così capiresti da solo il legame che c'è fra basso/bassissimo livello e produttività / consumo di risorse.

Purtroppo a mio avviso parli così perché non sei un programmatore, le tue opinioni sono da semplice utente (anche se più smanettone rispetto ad altri), e sono troppo influenzate da esperienze personali.

La realtà è, invece, ben diversa. Ed è il motivo per cui ho detto, e lo ripeto ancora, che mai e poi mai tornerei indietro ai vecchi tempi che ho descritto in precedenza.
non lo ha fatto perchè altrimenti sarebbe ammettere che l'architettura ARM è il futuro e che x86 non ha piu' spazio nel mercato. Cosa non esattamente vera, sopratutto nel breve periodo.
Scusami, dove sta scritto che per fare meglio Intel avrebbe dovuto / dovrebbe adottare ARM come architettura?

In primis l'argomento erano le prestazioni, e Intel (come pure AMD) hanno ancora ampi margini per migliorare sia il backend sia il frontend.

Secondo, Intel ha già prodotto chip ARM in passato, ma se n'è liberato perché ha pensato di poter utilizzare la sua ISA anche in ambiti embedded / mobile. Quindi ha già avuto modo di fare le sue valutazioni, e ha deciso di proseguire soltanto con la sua ISA.
Inoltre perchè dovrei preferre una soluzione ARM Intel rispetto a produttori già affermati da decenni?
Perché potrebbe fare meglio?

Fermo restando quanto detto qui sopra.

386DX40
22-12-2020, 12:50
Ti hanno già risposto, e concordo: ci facevi di tutto coi limiti che avevi all'epoca, però. Oggi abbiamo sia hardware molto più potente che ti consente di fare di più, sia software che ne trae vantaggio. Tutto assieme consente una produttività di gran lunga migliore rispetto al passto.

Facendo una premessa, forse ogni opinione e' soggettiva, personale e legittima per cui non credo di avere "verità rivelate" quando penso di apprezzare la tecnologia degli anni '90 o quella analogica né penso di convincere nessuno con mie opinioni. La speranza spero sia quella poter valutare le opinioni altrui e forse poter riflettere sulle proprie reciprocamente. :)
Se produttività e' sinonimo di quantità, sono d'accordo. Oggi si vende e produce e consuma il doppio. Non sarei pero' sicuro che cio' che si compra, serve per produrre e consumare il doppio, sia necessario nel modo in cui la tecnologia e il pensiero tecnico promettono.


Anche su questo non concordo. Oggi l'hardware costa molto, ma molto meno rispetto al passato, e infatti è molto di più diffuso. Telefonini hanno potenze di calcolo da supercomputer del passato..
Se costa meno magari solleva domande. Certi device potrebbero ricordare la vecchia logica della "televisione gratuita". :)


Tutto questo è progresso. E comodità.

E' il "progresso della comodità" senza garanzia del necessario.


Il progresso ha migliorato entrambe le cose, espandendo il mercato alla maggior parte della popolazione. Questo è vero progresso, IMO.

Se si parla di masse forse per mio limite, non vedo dove la massa ne abbia beneficiato a livello consumer.


Hai dimenticato che sono aumentate le risoluzioni e la profondità colore, che hanno contribuito ad aumentare notevolmente gli asset di un'applicazione. Aggiungiamoci pure il fatto che le immagini statiche adesso mostrano pure delle animazioni, e si fa presto il conto di quanto spazio in più sia stato richiesto.
Passare da 20MB a es. 20GB e' proporzionalmente misurabile in termini di cose in piu' che si possono fare? Tempo fa un utente notava che un' app calcolatrice per il suo tablet pesava tipo 90 Megabytes. :)


Qui dimentiche che un tempo c'erano pochi virus, mentre adesso ne abbiamo nell'ordine delle centinaia di migliaia (o forse milioni).

Forse sarà cosi' ma guardando alle opzioni nel settings di alcuni motori antivirus viene da chiedersi se quel peso sia necessario ad altre logiche oltre alle prevenzione degli eventuali migliaia di virus in sè.


Ma anche no. Dai un computer in mano a qualcuno adesso, e poi dagli un PC vecchio col vecchio software, e chiedigli di fare le stesse cose. E poi vedrai le differenze.
E' questo il punto. Facendo un parallelo quando non si sapra' nemmeno piu' guidare un automobile perche' autoguidata, forse ci si chiederà quanto e quale sia il costo di quella "comodità". In primis l' ennesima cosa "in meno" che l' essere umano saprà fare senza un aiuto esterno. :)


Direi sì: fra il militare che agitava le mani su un grafico con delle freccette rosse o blu (quello c'era, tanti anni fa: freccette colorate appiccicate alla cartina) e un grafico 3D che ti fa vedere in tempo reale cosa succederà, inclusa l'evoluzione delle previsioni per alcune ore...

Credo che alla fine il punto fondamentale resti sapere se e quanto e' probabile o meno che piova o no, intanto la materia e' talmente complessa che la grafica su sfondo verde con animazioni a 120fps non importa piu' di tanto mentre immagino importa la precisione dei modelli matematici e la loro competente interpretazione, indipendentemente dalla grafica.


Direi di sì. Guardati la parte finale di Nightmare, giusto per fare un esempio, quando il caro vecchio Freddy si porta negli inferi la mamma di uno dei protagonisti: la scena è assolutamente ridicola a causa del manichino usato per la mammina. Prova a immaginare oggi cosa si potrebbe fare con la CG...


Una marea di film prima della Cg rimangono scolpiti nella pietra del Cinema indimenticabile. Una marea di film in Cg verranno forse dimenticati imho. Attori anche solo nostrani come Sordi, Tognazzi, Gassman non avevano bisogno di Cg per entrare "da soli" nella Storia del cinema con le loro interpretazioni e con regie e sceneggiature eccellenti. Quanti dei film fatti in Cg verranno ricordati o famosi personaggi creati in Cg? Un esempio anche moderno come la trilogia de 'Il Signore degli Anelli' dove il primo "La Compagnia dell' Anello" resta un capolavoro proprio perche' la Cg era necessariamente limitata e la storia e messaggio riportati dal libro con una certa arte, i seguenti dove la Cg prende il sopravvento non vorrei nemmeno averli visti. Idem se si confrontano film come "The Matrix (1999)" con i discutibili sequel. Ricordo l'esempio di un film a basso budget come "Moon (2009)" per notare la differenza di un film da 5 mil.$ fatto con modellini veri contro altri pessimi dello stesso genere in Cg che sono costati forse venti volte tanto se non di piu'. Senza ovviamente scomodare che so' "2001: Odissea nello Spazio (1968)".


Stai facendo un discorso troppo generalista e, soprattutto, soggettivo.
..oltre al fatto che rimane una tua personalissima opinione.

Come premesso immagino tutte siano opinioni personali. :)


Ma oggi abbiamo hardware in grado di fare girare in scioltezza il tutto (anzi, con la CPU che continua a lavorare a bassi regimi).

Viene fatto in scioltezza l'essenziale immagino.. il resto dell' hw mi chiedo se serva al superfluo di cui l'utente (della massa) forse non necessita? Tutti i processi in background dopo un normale avvio a prescindere da quale o.s. sono necessari?


Non sei un programmatore...
Così capiresti da solo il legame che c'è fra basso/bassissimo livello e produttività / consumo di risorse.
..
Purtroppo a mio avviso parli così perché non sei un programmatore, le tue opinioni sono da semplice utente (anche se più smanettone rispetto ad altri), e sono troppo influenzate da esperienze personali.

A proposito di opinioni personalissime.. ;)
Personalmente non so gli altri utenti quali titoli o esperienze abbiano per poter avere opinioni su quello che sanno o meno. So solo che "Tutto il mio sapere è sapere che nulla so." :)

LMCH
23-12-2020, 03:31
Secondo, Intel ha già prodotto chip ARM in passato, ma se n'è liberato perché ha pensato di poter utilizzare la sua ISA anche in ambiti embedded / mobile. Quindi ha già avuto modo di fare le sue valutazioni, e ha deciso di proseguire soltanto con la sua ISA.
Non proprio, Intel aveva "ereditato" gli StrongARM da DEC insieme alla fab di DEC e varie IP, ma ha fatto vari sbagli di mercato e poi ha venduto tutta la baracca a Marvell (con due "L") che ha portato avanti il business con maggior successo.

Anni dopo ha provato ad entrare nel settore degli smarphone ed embedded low-end ma di fatto ha ripetuto gli stessi errori e non è questione di "mancato supporto", io stesso ho prodotto app per Android con ottimizzazioni in codice nativo sia per ARM che per x86-64, erano proprio i SoC proposti da Intel che avevano consumi troppo elevati e che non seguivano le richieste del mercato.
Infatti ho ancora adesso un tablet Android con Atom (aggiornato con Bliss OS per x86-64 basato su Android 9) e va più che bene (specialmente grazie alla batteria da 10000mAh :) ).

Semmai è da notare che ora Intel vende un sacco di FPGA che contengono dei quad-core Cortex-A53 ed ha abbandonato lo sviluppo dei SoC Quark (x86 a 32bit per IoT ed altra roba embedded super-economica) quindi di fatto il "proseguire soltanto con la sua ISA" non è che sia stato un successone.

cdimauro
23-12-2020, 05:52
Facendo una premessa, forse ogni opinione e' soggettiva, personale e legittima per cui non credo di avere "verità rivelate" quando penso di apprezzare la tecnologia degli anni '90 o quella analogica né penso di convincere nessuno con mie opinioni. La speranza spero sia quella poter valutare le opinioni altrui e forse poter riflettere sulle proprie reciprocamente. :)
Se produttività e' sinonimo di quantità, sono d'accordo. Oggi si vende e produce e consuma il doppio. Non sarei pero' sicuro che cio' che si compra, serve per produrre e consumare il doppio, sia necessario nel modo in cui la tecnologia e il pensiero tecnico promettono.
Per me è chiaro che produttività non significhi soltanto quantità, ma anche qualità: è anche il COME si fanno le cose che è cambiato, che è più comodo, come avevo già detto.

Ecco perché NON ho nostalgia del passato, se non a livello puramente hobbistico, quando faccio partire WinUAE per tornare a giochicchiare un po' con lo stesso ambiente (ho fatto la copia 1:1 del mio vecchio hard disk) Amiga col quale ho speso anni della mia vita. Quindi è un fattore puramente nostalgico, ma di altro tipo. :fagiano:
Se costa meno magari solleva domande. Certi device potrebbero ricordare la vecchia logica della "televisione gratuita". :)
Costa meno perché la produzione di massa ha fatto abbassare enormemente i costi, e quindi contribuito a far diffondere la tecnologia a qualunque ceto sociale (anche a chi sta sotto la soglia di povertà).

Forse ti riferisci al fatto che un prodotto acquistato oggi non duri quanto uno del passato, e ci può anche stare, visto che l'abbassamento dei costi significa anche si è dovuto utilizzare materiale e/o progettazione più economica.

Ma parlando esclusivamente di tecnologia c'è da dire che prestazioni/storage/caratteristiche sono aumentate di ordini di grandezza, e quindi certi prodotti sono divenuti rapidamente obsoleti.
E' il "progresso della comodità" senza garanzia del necessario.
Per quanto mi riguarda produttività e comodità sono necessarie, perché il tempo è l'unica cosa che non posso andare a comprare al mercato.
Se si parla di masse forse per mio limite, non vedo dove la massa ne abbia beneficiato a livello consumer.
Stai scherzando? La prima TV che abbiamo avuto in famiglia era in bianco in nero, senza telecomando, e con sole 6 manopole per sintonizzare i canali a cui eravamo più interessanti...
Passare da 20MB a es. 20GB e' proporzionalmente misurabile in termini di cose in piu' che si possono fare? Tempo fa un utente notava che un' app calcolatrice per il suo tablet pesava tipo 90 Megabytes. :)
Dubito fortemente che si tratti di 90MB di codice. Ciò che è aumentato molto sono gli asset, come già detto.

Ma puoi verificarlo anche tu. A parte i file di dati, anche i binari (eseguibili e librerie) si possono analizzare (senza disassemblarli) e puoi vedere quanto occupino le sole parti di codice (le sezioni "text").

Ovviamente l'aumento del codice c'è stato in tutti questi anni, ma per le motivazioni che sono già state date sia da me sia da altri.
Forse sarà cosi' ma guardando alle opzioni nel settings di alcuni motori antivirus viene da chiedersi se quel peso sia necessario ad altre logiche oltre alle prevenzione degli eventuali migliaia di virus in sè.
Evidentemente è necessario, in base all'engine dell'antivirus, che non si occupa soltanto di confrontare alcuni byte di un eseguibili controllando nel database che usa, ma esegue anche delle analisi del codice per vedere se esistono pattern "malevoli".

Ed è tutta roba che richiede risorse: c'è poco da fare.
E' questo il punto. Facendo un parallelo quando non si sapra' nemmeno piu' guidare un automobile perche' autoguidata, forse ci si chiederà quanto e quale sia il costo di quella "comodità". In primis l' ennesima cosa "in meno" che l' essere umano saprà fare senza un aiuto esterno. :)
Non mi pongo nemmeno il problema perché il mio obiettivo è proprio quello: lasciare che la tecnologia faccia quanto più possibile, in modo da lasciarmi più tempo libero per le mie cose. :cool:
Credo che alla fine il punto fondamentale resti sapere se e quanto e' probabile o meno che piova o no, intanto la materia e' talmente complessa che la grafica su sfondo verde con animazioni a 120fps non importa piu' di tanto mentre immagino importa la precisione dei modelli matematici e la loro competente interpretazione, indipendentemente dalla grafica.
I 120FPS no, ma a mia madre, che non è certo avvezza alle tecnologia, interessa eccome vedere dove e cosa ci sarà, come si evolverà il tempo non soltanto durante la giornata, ma anche per i giorni successivi (con tutti i limiti del caso).

Roba che in passato era fantascienza. E puoi vedere tu stesso come la tecnologia qui abbia inciso su due aspetti: le prestazioni hanno consentito previsioni non più limitate al solo giorno dopo, ma anche la granularità e la qualità delle informazioni trasmesse ha subito un drastico miglioramento.
Una marea di film prima della Cg rimangono scolpiti nella pietra del Cinema indimenticabile. Una marea di film in Cg verranno forse dimenticati imho. Attori anche solo nostrani come Sordi, Tognazzi, Gassman non avevano bisogno di Cg per entrare "da soli" nella Storia del cinema con le loro interpretazioni e con regie e sceneggiature eccellenti. Quanti dei film fatti in Cg verranno ricordati o famosi personaggi creati in Cg? Un esempio anche moderno come la trilogia de 'Il Signore degli Anelli' dove il primo "La Compagnia dell' Anello" resta un capolavoro proprio perche' la Cg era necessariamente limitata e la storia e messaggio riportati dal libro con una certa arte, i seguenti dove la Cg prende il sopravvento non vorrei nemmeno averli visti. Idem se si confrontano film come "The Matrix (1999)" con i discutibili sequel. Ricordo l'esempio di un film a basso budget come "Moon (2009)" per notare la differenza di un film da 5 mil.$ fatto con modellini veri contro altri pessimi dello stesso genere in Cg che sono costati forse venti volte tanto se non di piu'. Senza ovviamente scomodare che so' "2001: Odissea nello Spazio (1968)".
Ci sono stati e ci saranno sempre buoni e cattivi attori, come pure un buon o cattivo uso di uno strumento.

Ma la mancanza di strumenti limita oggettivamente le possibilità di un regista.

Basti guardare ai vecchi film di fantascienza, ad esempio, che si sono dovuti arrangiare con lo stop-motion. Roba che, a guardarla adesso fa semplicemente ridere (e i miei figli sono degli spietati critici in merito, essendo nati immersi nella tecnologia moderna).
Come premesso immagino tutte siano opinioni personali. :)
E' anche opinione personale che la produttività e la comodità d'uso siano migliorati rispetto al passato? :mbe:
Viene fatto in scioltezza l'essenziale immagino.. il resto dell' hw mi chiedo se serva al superfluo di cui l'utente (della massa) forse non necessita?
"Niente è più necessario del superfluo" ;)
Tutti i processi in background dopo un normale avvio a prescindere da quale o.s. sono necessari?
Sì, lo sono, perché abbiamo sistemi complessi che fanno tante cose, ormai, come già detto.

Ma il fatto di avere centinaia di processi non vuol dire nulla, visto che sono per lo più in idle. Vengono "risvegliati" soltanto quando servono, e poi tornando a dormire.
A proposito di opinioni personalissime.. ;)
Personalmente non so gli altri utenti quali titoli o esperienze abbiano per poter avere opinioni su quello che sanno o meno. So solo che "Tutto il mio sapere è sapere che nulla so." :)
Infatti sarebbe interessante conoscere la tua esperienza come programmatore. ;)

Come ho già detto, io ne ho parecchia, e sono partito dallo scrivere in assembly (e usando le primitive API del s.o.) applicazioni dotate di GUI, fino ad arrivare a usare IronPython+WPF (che personalmente ritengo il top a livello di toolkit grafico).
Quindi so per esperienza cosa significhi sia come sviluppatore sia come utente (perché dovevo soddisfare le esigenze dei clienti, o perché il cliente ero proprio io), e in questo lungo arco di tempo sono in grado di fare valutazioni oggettive, ampiamente verificabili anche da da altri sviluppatori e utenti (e alcuni ti hanno già risposto in merito).

A mio avviso tu ne fai una questione puramente nostalgica, perché sei stato abituato per anni a usare certe applicazioni e/o s.o., ed è ciò che ti lega a loro, conservando un vivido ricordo.

Ma la tecnologia fortunatamente è andata (molto) avanti. A beneficio di tutti.
Non proprio, Intel aveva "ereditato" gli StrongARM da DEC insieme alla fab di DEC e varie IP, ma ha fatto vari sbagli di mercato e poi ha venduto tutta la baracca a Marvell (con due "L") che ha portato avanti il business con maggior successo.
Fino alla vendita a Marvell mi sembra che il business ARM di Intel andasse molto bene. Anzi, era pure il punto di riferimento nel panorama ARM.
Anni dopo ha provato ad entrare nel settore degli smarphone ed embedded low-end ma di fatto ha ripetuto gli stessi errori e non è questione di "mancato supporto", io stesso ho prodotto app per Android con ottimizzazioni in codice nativo sia per ARM che per x86-64, erano proprio i SoC proposti da Intel che avevano consumi troppo elevati e che non seguivano le richieste del mercato.
Purtroppo la piaga era rappresentata dalle app o giochi che erano nativi ARM, per cui era necessario l'uso dell'emulatore.

Il supporto Android a x86-64 era estremamente limitato, e quindi era il suo tallone d'Achille. Ricordo ancora oggi le slide di ARM in cui mettevano in mostra proprio questo dato, per invogliare la clientela a continuare a usare le sue piattaforme: chissà perché...
Infatti ho ancora adesso un tablet Android con Atom (aggiornato con Bliss OS per x86-64 basato su Android 9) e va più che bene (specialmente grazie alla batteria da 10000mAh :) ).
Ne ho un paio anch'io (presi scontati dallo store aziendale :P), ma ormai sono messi da parte causa telefonini che sono diventati complessivamente più pratici.

Ci farò un pensierino, comunque.
Semmai è da notare che ora Intel vende un sacco di FPGA che contengono dei quad-core Cortex-A53 ed ha abbandonato lo sviluppo dei SoC Quark (x86 a 32bit per IoT ed altra roba embedded super-economica) quindi di fatto il "proseguire soltanto con la sua ISA" non è che sia stato un successone.
I prodotti FPGA hanno core ARM da anni, visto che Altera li ha sempre usati. Per cui è normale che lo siano ancora.

I SoC Quark purtroppo hanno avuto vita breve, come per gli smartphone, perché anche l'embedded è dominato da altre soluzioni, in primis basati su ARM.

NickNaylor
24-12-2020, 00:52
Ci sono stati e ci saranno sempre buoni e cattivi attori, come pure un buon o cattivo uso di uno strumento.

Ma la mancanza di strumenti limita oggettivamente le possibilità di un regista.

Basti guardare ai vecchi film di fantascienza, ad esempio, che si sono dovuti arrangiare con lo stop-motion. Roba che, a guardarla adesso fa semplicemente ridere (e i miei figli sono degli spietati critici in merito, essendo nati immersi nella tecnologia moderna).


in linea di massima concordo ma ci sono anche delle eccezioni, cioè la computer grafica non di rado si nota che è finta, e in passato si sono visti alcuni film fatti tutti di scenografie e maschere che sono venuti una meraviglia, come 2001 odissea nello spazio ( a parte le scimmie ) ma anche il sequel 2010 l'anno del primo contatto tanto per dirne un paio.
il caso che rende meglio l'idea di tutto questo penso che sia stranger things, la prima stagione l'hanno girata un po' in economia e il regista ha scelto di girare tutto senza computer grafica ed è venuta una bomba, poi visto il successo netflix ci ha buttato dentro un pozzo di soldi ( e imposizioni di m3rda sulla trama) e giù di vfx e green screen... un disastro. :doh:

cdimauro
24-12-2020, 06:25
Ma il problema rimane sul come viene usata, per l'appunto. Alla fine sono soltanto strumenti nelle mani di esseri umani.

Vedi la differenza fra Terminator e Terminator 2: quando ho visto già soltanto il trailer del secondo mi è caduta la mascella a terra. Roba che rendeva del tutto ridicolo il primo film (parlo soltanto degli effetti speciali, ovviamente).
Questo IMO è un chiaro esempio di cosa significhi progresso e di come le innovazioni tecnologiche possano migliorare (di gran lunga) la situazione in un certo campo.

Sta a noi usare questi nuovi strumenti, e trarne giovamento...

The_ouroboros
24-12-2020, 08:45
Vedi la differenza fra Terminator e Terminator 2: quando ho visto già soltanto il trailer del secondo mi è caduta la mascella a terra. Roba che rendeva del tutto ridicolo il primo film (parlo soltanto degli effetti speciali, ovviamente).
Questo IMO è un chiaro esempio di cosa significhi progresso e di come le innovazioni tecnologiche possano migliorare (di gran lunga) la situazione in un certo campo.



Ma quello che facevano i fratelli lumiere e' abbastanza suvvia /s

biometallo
24-12-2020, 09:14
Ma quello che facevano i fratelli lumiere e' abbastanza suvvia /s

Ma in termini di produttività le pitture rupestri sono ancora imbattute, chi non ricorda classici come "grande caccia al cervo" e "grande caccia al cervo2?" certo poi dopo i sequel sapevano un po' tutti di già visto... :O

386DX40
24-12-2020, 09:59
Terminator (1984) e' stato fatto con 6 milioni di dollari nell' 84, Terminator 2: Judgment Day (1991) e' stato fatto con 100 milioni di dollari e non solo per la Cg. Ma l'esempio calza come uno dei primi film che ha iniziato ad usare "in parte limitata la Cg" quasi solo per il T-1000 come "aiuto" agli effetti speciali standard usati in modo massiccio (visto il budget) piu' credibili dove stuntman si schiantavano per davvero dentro veicoli veri o come nel film in esempio con un chopper atterrava da n metri di altezza sebbene con il volto traballante in Cg. Se fosse stato fatto "tutto" in Cg non avrebbe avuto le ottime interpretazioni degli attori (Arnold e Robert Patrick (T-1000) in primis). Infatti basta vedere i sequel quanto sono memorabili...
Il problema >> I M H O << semmai era nel primo Terminator dell' 84 che aveva una sceneggiatura piuttosto scarna e la composizione musicale entrambi non all' altezza del secondo molto piu' emotivo e drammatico, le scene d'azione piuttosto scontate e lente e un Arnold ingessato che quasi non proferisce parola e la stessa Hamilton che sembra avere una sola espressione per tutto il film; ora e' un po' che non lo vedo ma mi pare chiaro che le aspettative non fossero le stesse da entrambi i film.
Circa i fratelli Lumière o le pitture antiche, oggigiorno dipinti di storici pittori o fotografie vengono battute all'asta per milioni di dollari. Evidentemente gli artisti di una volta hanno qualcosa da dire rispetto alla discutibile arte contemporanea. Impegno e produttività non sono la stessa cosa come produttività non e' sinonimo di fatturato a prescindere dalla qualità. Vincent van Gogh in vita sua e' riuscito a vendere una manciata di quadri e ne ha prodotti una marea e a malapena sopravviveva grazie al fratello che lo supportava continuamente. Il suo concetto di produttività deve essere stato diverso dal nostro.

LMCH
24-12-2020, 12:36
Fino alla vendita a Marvell mi sembra che il business ARM di Intel andasse molto bene. Anzi, era pure il punto di riferimento nel panorama ARM.

Andavano bene ... ma la concorrenza era già saltata sul nuovo settore dei SoC per cellulari e smartphone mentre Intel era rimasta ferma ai PDA.
Probabilmente hanno pensato che non valesse la pena fare altri grossi investimenti e che fosse meglio monetizzare e focalizzarsi sul loro core business.


Ne ho un paio anch'io (presi scontati dallo store aziendale :P), ma ormai sono messi da parte causa telefonini che sono diventati complessivamente più pratici.

Io ho un Chuwi Hi12 con display da 12", ancora adesso è perfetto per leggersi roba in pdf su uno schermo di dimensioni e risoluzione adeguate. :)


I prodotti FPGA hanno core ARM da anni, visto che Altera li ha sempre usati. Per cui è normale che lo siano ancora.
Non solo, di solito chi usa FPGA con micro incorporato lo fa per avere una piattaforma "standard" consolidata (software per un certo processore, più periferiche "trasportabili da un FPGA all'altro") e se gli cambi il processore con qualcosa non retrocompatibile dire che si incaXXano è poco.


I SoC Quark purtroppo hanno avuto vita breve, come per gli smartphone, perché anche l'embedded è dominato da altre soluzioni, in primis basati su ARM.
La mia impressione è che i SoC Quark avrebbero avuto un potenziale se Intel avesse prestato maggior attenzione all'ecosistema esistente in tutti i potenziali settori, non solo per IoT. Ma questo avrebbe richiesto un commitment molto più lungo e l'accettare margini di guadagno più bassi.

The_ouroboros
24-12-2020, 12:39
E che Intel fosse scesa dal piedistallo su cui si è auto messa per anni (inizialmente per merito, poi per inerzia)

cdimauro
26-12-2020, 07:27
Andavano bene ... ma la concorrenza era già saltata sul nuovo settore dei SoC per cellulari e smartphone mentre Intel era rimasta ferma ai PDA.
Probabilmente hanno pensato che non valesse la pena fare altri grossi investimenti e che fosse meglio monetizzare e focalizzarsi sul loro core business.
Hanno pensato di affidarsi esclusivamente ai propri prodotti (Atom), ed è per questo che hanno preferito vendere la divisione ARM nonostante andasse bene.
Io ho un Chuwi Hi12 con display da 12", ancora adesso è perfetto per leggersi roba in pdf su uno schermo di dimensioni e risoluzione adeguate. :)
Per la lettura preferisco il Kindle Paperwhite. :fagiano:
La mia impressione è che i SoC Quark avrebbero avuto un potenziale se Intel avesse prestato maggior attenzione all'ecosistema esistente in tutti i potenziali settori, non solo per IoT. Ma questo avrebbe richiesto un commitment molto più lungo e l'accettare margini di guadagno più bassi.
Esattamente: Intel NON è assolutamente abituata ai bassi margini. Tutt'altro.
E che Intel fosse scesa dal piedistallo su cui si è auto messa per anni (inizialmente per merito, poi per inerzia)
Non sono assolutamente d'accordo. Quello che ha fregato Intel sono stati i problemi coi processi produttivi, che l'hanno bloccato già per più di 4 anni, e che continuano a farla soffrire.

@386DX40: non cambia di una virgola ciò che avevo detto.

Primo, non stiamo confrontando la bravura o meno di attori e/o registi, ma le possibilità offerte dall'avanzamento della tecnologia. T2 senza questi ultimi semplicemente non sarebbe potuto esistere.

Secondo, nessuno qui ha parlato di sostituire totalmente gli attori con la Cg.

LMCH
27-12-2020, 19:30
Per la lettura preferisco il Kindle Paperwhite. :fagiano:


Pure io preferirei i display eInk per la semplice lettura, ma quando hai i classici pdf impaginati ad A4 o dimensione di pagina simile (per cui per leggere agevolmente a a piena pagina servirebbe un display da almeno 10 pollici, meglio se 12..13 pollici) , magari con grafici e diagrammi a colori in cui è da spararsi già solo a distinguere cosa è verde da cosa è rosso ... :what:
Per ora devo farmi bastare i tablet con display tft. :help:

cdimauro
28-12-2020, 06:54
Vero. In genere non uso i PDF perché ovviamente preferisco gli e-book. A volte capita di dover leggere PDF, ed effettivamente può essere un dramma col Kindle. Per cui è meglio che sistemi il tablet. :p

megamitch
28-12-2020, 07:13
Però vale anche il ragionamento inverso... Che benefici hanno portato tanti anni di " Legacy " in ambito PC? E in quale misura?
Un Windows senza il fardello della compatibilità verso hardware e tecnologie tutto sommato " vecchie " come girerebbe?
Sarebbe così limitante per la maggior parte dell'utenza PC avere un dispositivo Surface con un SoC/architettura fatta in casa da MS, che le garantisse buone prestazioni per qualche anno ( almeno più di 5 ) senza l'assillo di aggiornare l'hardware con tutto ciò che si porta dietro?
Inoltre, come si è visto con M1 di Apple, utilizzare un SoC/architettura proprietari non significa necessariamente chiudersi su se stessi escludendo l'utenza dall'uso di altri OS.
Credo che per comprendere correttamente questa mossa di MS sia necessario abbandonare le logiche da hardware geek e da overclockers, visto che restringono l'orizzonte ad una nicchia di utenti che badano solamente alla mera performance spendendo cifre rilevanti solamente per una GPU o CPU.

Per la parte in grassetto, è già così. I computer durano ben più di 5 anni per la stragrande maggioranza delle persone.