Quote:
Originariamente inviato da Vul
Anche questo numero mi sembra esagerato.
Tanto per dire, con 100 miliardi compri tutte le gpu prodotte di gpu di amd e nvidia di quattro/cinque anni di produzione che include tutte le gpu discrete prodotte da nvidia/amd da gamers, a supercomputers a data centers...
|
Quote:
Deploying current ChatGPT into every search done by Google would require 512,820.51 A100 HGX servers with a total of 4,102,568 A100 GPUs. The total cost of these servers and networking exceeds $100 billion of Capex alone, of which Nvidia would receive a large portion. This is never going to happen, of course, but fun thought experiment if we assume no software or hardware improvements are made.
|
Secondo una notizia di Engadget del 2020 un server con 8 A100, due CPU AMD da server, 1TB di ram ecc costava 200 mila dollari, fanno 25 mila a GPU, per quattro milioni di GPU sono 100 miliardi tondi, la cavetteria di rete la daranno in omaggio
Perņ č una notizia del 2020, magari ora a trovare 500 mila server di seconda mano si risparmia