Redazione di Hardware Upg
04-11-2024, 07:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/meta-sta-utilizzando-piu-di-100000-gpu-nvidia-h100-per-addestrare-llama-4_132399.html
Mark Zuckerberg ha dichiarato che Meta sta addestrando i modelli Llama 4 su un cluster che conta più di 100.000 GPU H100 di NVIDIA. Nuove modalità, ragionamenti migliori e prestazioni superiori per i nuovi modelli di Meta.
Click sul link per visualizzare la notizia.
randorama
04-11-2024, 07:48
parlano di llama... e a me viene in mente lui
https://upload.wikimedia.org/wikipedia/commons/thumb/8/82/Jeff_Minter_-_GDC_2007.jpg/330px-Jeff_Minter_-_GDC_2007.jpg
jepessen
04-11-2024, 09:32
Io mi domando perche' NVidia abbia il monopolio di fatto sul GPU computing.
Cioe', capisco a livello commerciale, capisco che sia piu' "facile" trovare programmatori CUDA che OpenCL, ma le big tech dovrebbro fare piu' affidamento sul lato tecnico che su quello "commerciale", quindi dal punto di vista tecnico cosa ha l'accoppiata NVidia-CUDA che non ha AMD-OpenCL?
supertigrotto
04-11-2024, 11:27
Io mi domando perche' NVidia abbia il monopolio di fatto sul GPU computing.
Cioe', capisco a livello commerciale, capisco che sia piu' "facile" trovare programmatori CUDA che OpenCL, ma le big tech dovrebbro fare piu' affidamento sul lato tecnico che su quello "commerciale", quindi dal punto di vista tecnico cosa ha l'accoppiata NVidia-CUDA che non ha AMD-OpenCL?
Che i programmatori moderni sono come i ragazzetti moderni,tolto lo smartphone di mano,non sanno fare nulla e non sanno nulla.....ok ho enfatizzato ma il concetto è quello,per questo fuori dall' ambiente CUDA......
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.