Quote:
Originariamente inviato da jepessen
Tanto per citare i primi che mi vengono in mente:
- Machine Learning: Di dati ce ne sono a bizzeffe, per fare training i computer devono macinare quintali di bit nel piu' breve tempo possibile. Ovviamente data la potenza dei processori, uno dei colli di bottiglia e' la velocita' con la quale vengono letti i dati, e quindi qua la differenza si fa sentire.
- Server: Se gestisci un server che ospita applicazioni utilizzate da molti utenti (siti web, virtualizzazione etc), caricare, salvare (anche se in minor misura) i dati significa avere applicazioni piu' responsive. E anche se per un singolo utente la differenza puo' non sembrare apprezzabile, anche se presente, l'utilizzo conteporaneo dell'applicazioni su molti utenti e' importante e la velocita' di accesso ai dati fa la differenza in molti casi sul numero di macchine da utilizzare in clustering per mantenere l'applicazione responsiva.
- Database: parente di quello che ho detto prima, in applicazioni mission critical la velocita' di lettura e scrittura dei dati e' importante, tanto che per cercare di ovviare alla lentezza dei dati offline si cerca di tamponare con workaround, come dischi ram etc. Anche in questo caso la velocita' dei dischi puo' fare la differenza fra utilzzare una sola macchina oppure due, a parita' di prestazioni dell'applicazione, con un raddoppio dei costi che possono essere evitati con un bus piu' veloce.
- Sviluppo giochi: E non parlo del tetris sul cellulare. Giochi di tipo AAA sono molto pesanti da sviluppare dal punto di vista dei dati gestiti, sia per la pesantezza degli asset, che raggiungono svariate giga, e per la conseguente velocita' di caricamento degli ultimi. Se riesco a caricare un livello per modificarlo in due minuti invece the in quattro, e devo salvare e caricare livelli in continuazione, puo' significare anche un'ora in piu' al giorno in meno ad aspettare che carichino i livelli, e posso essere piu' produttivo.
- Architettura: tu non hai mai gestito nuvole di miliardi di punti ottenuti tramite scansione laser, suppongo...
- Trading online: se devi fare trading, devi sviluppare le tue strategie, e poi devi fare backtesting. Il backtesting lo fai caricando grosse quantita' di dati storici che sono memorizzati offline. Aspettare un quarto d'ora per il backtesting invece che mezz'ora puo' aumentare in maniera considerevole la produttivita'.
Poi ce ne sono molti altri di ambiti, ma sinceramente mi annoia andare ad elencarti tutti quelli che conosco, che ovviamente saranno una minima parte di quelli possibili. Quindi, come prima, il fatto che "se io non lo uso allora e' una cosa inutile" e' una supponenza che quel post dice apertamente e che continuo a confermare. E non metterti a parlare di statistiche e dire "eeeehhh ma tanto solo a pochissime persone servono ste cose" o simili perche' confermerebbe una volta in piu' l'ignoranza in merito.
|
SERVER/ML/DB: nessun produttore OEM ha in distribuzione soluzioni GEN5, non servono. Il CAP è sulla CPU.
SVILUPPO VG: L'Unreal engine 5 è gratuito, carica degli asset, i più pesanti che trovi, e fai un confronto SATA SSD vs NVME Gen4...
Non aspettarti che quest'ultimo sia 10 volte più veloce, anzi nemmeno il doppio
Con gli asset "vivi" si lavora tutto in RAM, sappilo.
ARCHITETTURA: conta la CPU,VGA e RAM, ho molti clienti che lo usano per realizzazioni, in questo caso anche un vecchio NVME gen 3 va assolutamente bene. Tanto il grosso del tempo di caricamento, sta lì a grattarsi, ad aspettare la CPU.
TRADING: sono dati "ottimizzati" (come peso) mica texture di un VG...Ma tanto siamo in ambito SERVER (vedi sopra).
Finché non si portano avanti le CPU...
È inutile fare gomme che permettono di andare si 500 km/h, se la macchina si ferma ai 400 km/h...
Serviranno veramente in futuro, nemmeno così vicino.
La situazione si è ribaltata, siamo passati dagli HDD che facevano aspettare la CPU, agli NVME che aspettano la CPU.