Big Sur, ecco il computer per l'IA di Facebook diventato open-source

Big Sur, ecco il computer per l'IA di Facebook diventato open-source

Il computer che esegue i calcoli di machine learning per il social network di Zuckerberg è adesso open-source, e tutti possono attingere ai suoi segreti

di pubblicata il , alle 10:01 nel canale Web
Facebook
 

Facebook sta rilasciando il design hardware di un server che la società usa per "addestrare" il software di intelligenza artificiale, in modo che altre società possano esplorare questo mondo e progettare sistemi simili. Chiamato in codice Big Sur, Facebook usa il server per eseguire i propri programmi di machine learning, un tipo di software che apprende dalle modalità d'uso dell'utente e diventa sempre più efficace e migliore senza ulteriore interazione da parte degli sviluppatori.

Facebook Big Sur

Sul machine learning stanno puntando praticamente tutti i big del settore informatico, fra cui Google, Apple, Microsoft e anche NVIDIA. La particolare tecnologia, che può essere volgarmente definita intelligenza artificiale, viene utilizzata in svariati ambiti: permette ad esempio di individuare cose e persone analizzando volti e oggetti in una foto o in un video, di riconoscere le parole in una frase dettata e anche di rilevare lo spam in un'email o eventuali tentativi di frode.

Facebook aveva già rilasciato tratti di codice dei suoi programmi di IA in passato, ma questa è la prima volta che offre il suo hardware come open-source. Big Sur si basa pesantemente sul GPU computing, nello specifico con schede NVIDIA Tesla, estremamente più efficienti in questi ambiti rispetto ad una CPU tradizionale. Il server può integrare un massimo di otto schede video ad alte performance che consumano ognuna circa 300Wh e possono essere configurate fra di loro in modi diversi attraverso connettori PCIe.

Stando a quanto afferma Facebook, il nuovo Big Sur basato su GPU è circa il doppio più veloce dell'hardware utilizzato precedentemente e la possibilità di distribuire i calcoli attraverso otto GPU diverse permette ai tecnici di "aumentare la velocità e le dimensioni delle reti di un altro fattore di due". Un'altra caratteristica molto interessante di Big Sur, dovuta all'uso di GPU e non di CPU tradizionali, è relativa al sistema di raffreddamento necessario per mantenere sotto controllo la dissipazione del calore.

Facebook Big Sur

L'hardware di Facebook non necessita di "sistemi di raffreddamento speciali" o infrastrutture specifiche. Di contro, altri server ad alte performance possono generare parecchio calore, con un esborso obbligato aggiuntivo per sistemi di raffreddamento specifici, come ad esempio nei casi più estremi vasche con particolari liquidi in cui i server vengono immersi per mantenere la temperatura dei componenti elettronici sotto controllo.

Usando Big Sur, Facebook può affidarsi a un sistema di raffreddamento ad aria piuttosto comune (come si può vedere dalle immagini che ha pubblicato), rinunciando a particolari soluzioni industriali e mantenendo molto bassi i costi di installazione e manutenzione. Come buona parte dell'hardware Open Compute, infatti, il server di Facebook è piuttosto semplice sul piano strutturale, con la componentistica presente che è studiata per essere compatibile con le necessità della società.

"Abbiamo rimosso i componenti che non venivano usati spesso, e i componenti soggetti frequentemente a rottura - come ad esempio i dischi fissi e i moduli DIMM - possono essere adesso sostituiti in pochi secondi", ha dichiarato la società. Facebook ha cercato inoltre di semplificare al massimo i lavori di manutenzione, "colorando" di verde tutti gli elementi che possono essere usati per sistemare o sostituire un pezzo difettoso. Anche la scheda madre può essere rimossa in una manciata di secondi.

Facebook Big Sur

Big Sur è quasi interamente tool-less, con il cacciavite che serve solo ed esclusivamente per rimuovere il radiatore che raffredda la CPU.

Se da una parte offrire Big Sur alla community open-source può essere una mossa altruistica, dall'altra questo permetterà alla società di ricevere consigli e supporto per migliorare la tecnologia e renderla più efficace. La società ha dichiarato che triplicherà i suoi investimenti nell'ambito della computazione attraverso GPU, in modo che potrà sfruttare gli algoritmi di machine learning su un numero superiore di servizi e affinare la sua affidabilità su quelli che già li sfruttano attivamente.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

7 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Ma7z012 Dicembre 2015, 10:07 #1
300 Wh?
eta_beta12 Dicembre 2015, 10:58 #2
che alimentatore piccolo per tutta questa potenza
300w x8 +altri 200w di cpu sono 2600watt
battilei12 Dicembre 2015, 11:01 #3
Pop corn in attesa di qualche lamentela verso Nino Grasso,
open source is a cancer, linux is a cancer, GPL is a cancer, gnè gnè
benderchetioffender12 Dicembre 2015, 11:39 #4
Originariamente inviato da: eta_beta
che alimentatore piccolo per tutta questa potenza
300w x8 +altri 200w di cpu sono 2600watt


se ti riferisci alla scatoletta vicino la scheda madre, quello è un rack di hard disk, non un alimentatore (che per fare 2600 sarà bello grosso)

anyway, bel progetto anche se, va ben il gpu computing, ma diciamolo che ci sono due processori (probabilmente megauberoptacore) sotto quella scatola verde, visti i dissipatori e quantità di ram

... e in ogni caso chiediamolo, ci gira crysis?
calabar12 Dicembre 2015, 12:27 #5
Pare ben ingegnerizzato, ma in fin dei conti non mi pare abbiano svelato chissà cosa, alla fine è il lavoro che fanno i creatori di case e rack.
Non fa certo male avere un progetto open e visionabile, ma non credo che questo rilascio sia così significativo per l'ambiente a cui è indirizzato.

Originariamente inviato da: battilei
Pop corn in attesa di qualche lamentela verso Nino Grasso

Eccomi!
"il doppio più veloce" significa veloce il triplo (oltre ad essere abbastanza cacofonico). Se si intendeva dire veloce il doppio, sarebbe meglio semplicemente dire "veloce il doppio".
Cappej12 Dicembre 2015, 13:13 #6
si vede che non hanno lo stesso passo di Apple:

"X2 volte più veloce" oppure "il BIG SUR più veloce di sempre"!
DarkmanDestroyer14 Dicembre 2015, 20:37 #7
un bel gingillo da sfruttare con boinc, li non sarebbe niente male
quanto all'hardware vediamo... doppio slot per cpu, probabilmente xeon
16 slot ram... forse circa 128 gb, più probabili 64 se queste foto non sono di hardware recente e scheda slot pci e rack customizzati...
niente male... sarebbe interessante sapere anche che temperatura fanno quelle gpu in tal configurazione specie se, oltre alla ventola radiale stock usano una supplementare esterna al rack (ove forse era ipotizzabile una piccola modifica allo chassis delle gpu per creare un effetto tubo verso l'esterno)

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^