In effetti forse mi sono espresso male.
Non intendevo dire che non è importante consumare poca energia. Non mi convince una tecnologia che anziché aumentare il rendimento (tanta potenza con pochi consumi) non faccia altro che accendere o spendere un interruttore. O consumi poco e vai lentissimo o consumi molto e vai veloce. In applicazioni tipo i database su Internet, che sono interrogati da migliaia di persone è probabile che il server vada sempre "al massimo", ma quando va lento, che tempi ci sono affinché si dia una mossa?
Senza contare inoltre che il consumo delle CPU in un server è un fattore secondario. Consumano molto più i dischi SCSI a 15000 giri collegati in RAID(ed un server decente ne ha minimo 5). E quelli non puoi neppure sognarti di metterli in stand-by!!!
|