View Single Post
Old 07-09-2009, 02:07   #16
samusreality
Junior Member
 
L'Avatar di samusreality
 
Iscritto dal: Jul 2009
Città: Modena, Italia
Messaggi: 10
Quote:
Originariamente inviato da @less@ndro Guarda i messaggi
mi chiedo perchè abbiano fatto i "giga" di ram quando con 16mb si andava benissimo con w95.
Non ha molto a che vedere col topic (e forse mi prenderò una lavata di capo dai moderatori) ma mi sembra giusto che si sappia...

Detta in maniera molto semplicistica, avere più memoria significa avere una descrizione più dettagliata dei dati da elaborare e "visualizzare". L'informatica si fonda sulla raccolta ed elaborazione dei dati, per poi restituire un feedback all'utente. Con l'evoluzione dei sistemi di raccolta dati (ad esempio una videocamera è uno strumento di raccolta dati video) è diventato necessario evolvere anche il resto della catena, cioè i dispositivi di elaborazione (ad es. la CPU) e di restituzione dei risultati (ad es. Monitor, schede video, schede audio) Ti faccio un esempio: quando ero molto giovine la risoluzione massima supportata dalle scheda grafiche era di 320x200 pixel; ogni pixel era descritto da un byte - 8 bit - (per visualizzare un massimo di 256 colori) quindi per memorizzare e visualizzare un solo fotogramma occorrevano 64 Kbyte di memoria libera; in questo momento la risoluzione del mio schermo è impostata su 1280x1024 con colore a 4 byte (32 bit) quindi per ogni schermata visualizzata servono circa 5 Mbyte. Oltretutto serve, contemporaneamente, altra memoria libera per le altre attività del sistema...

Pensa poi che il pc, nell'uso normale, non deve semplicemente visualizzare un'immagine, ma svolgere tante operazioni (chiamiamole processi) più o meno parallelamente, ed ogni processo ha comunque bisogno di memoria RAM (la CPU elabora il contenuto della RAM e non dell'hard disk).

Usare il disco rigido per liberare memoria RAM rallenta il sistema e richiede spazio libero, quindi conviene avere più ram.

Puoi verificare tutto ciò osservando la qualità dei giochi per cellulari (che è molto più bassa di quelli per PC) che utilizzano infatti molto meno memoria.

Per rimanere in topic: ovviamente anche le CPU, dovendo elaborare una maggiore quantità di informazioni nello stesso tempo hanno bisogno di una maggiore velocità di clock. Ad esempio i filmati, per sembrarci fluidi, devono essere proiettati con una frequenza di almeno 25 fotogrammi per secondo: con i nuovi standard (ad esempio il 1080i) le risoluzioni aumentano ma i fotogrammi devono essere visualizzati comunque con la stessa frequenza (in realtà, per questo scopo le CPU più spinte non portano grandi vantaggi...)

Quanto ho scritto è fortemente semplicistico ed impreciso ma spero di aver dato un primo input per rispondere al dubbio di alessandro, invitandolo ad una indagine autonoma.
samusreality è offline   Rispondi citando il messaggio o parte di esso
 
1