Meta anticipa 'Artemis', un nuovo chip custom per l'IA in arrivo quest'anno
Meta e Reuters confermano l'arrivo di una seconda generazione di MTIA (Meta Training and Inference Accelerator), nome in codice Artemis. La soluzione custom, pensata per i carichi di inferenza, lavorerà di concerto con le GPU di NVIDIA e non solo nei datacenter della società.
di Manolo De Agostini pubblicata il 02 Febbraio 2024, alle 08:01 nel canale Schede VideoMeta
Nel corso dell'anno Meta ha intenzione di installare nei propri datacenter un nuovo acceleratore custom per l'intelligenza artificiale chiamato "Artemis", probabilmente un'evoluzione dell'attuale MTIA (Meta Training and Inference Accelerator) annunciato lo scorso anno.
La notizia è stata rilanciata da Reuters, entrata in possesso di alcuni documenti interni, e confermata da un portavoce della società. Ridurre la propria dipendenza da NVIDIA e controllare meglio i costi sono certamente tra gli obiettivi a lungo termine di questo impegno, ma allo stato attuale Meta e NVIDIA hanno un rapporto di ferro.
Circa due settimane fa, infatti, Mark Zuckerberg annunciava l'intenzione di comprare centinaia di migliaia di acceleratori basati su GPU. In ogni caso, data la scala delle operazioni di operazioni di Meta, iniziare a installare hardware proprietario potrebbe consentirle di risparmiare centinaia di milioni di dollari nell'acquisto di chip e nei costi energetici associati.
Interrogato in merito, un portavoce di Meta ha confermato l'intenzione di adottare un chip aggiornato quest'anno, spiegando che funzionerà di concerto alle centinaia di migliaia di GPU acquistate. Meta conta di avere entro l'anno qualcosa come 350.000 acceleratori NVIDIA H100 e, aggiungendo forniture di altre realtà (come AMD), punta ad avere una capacità di calcolo equivalente a 600.000 NVIDIA H100.
"Riteniamo che i nostri acceleratori sviluppati internamente siano altamente complementari alle GPU disponibili in commercio nel fornire il mix ottimale di prestazioni ed efficienza su carichi di lavoro specifici di Meta", ha affermato il portavoce.
La soluzione di Meta si occupa solo di carichi di inferenza, ma il piano a lungo termine è realizzare soluzioni che, al pari delle GPU, possano farsi carico tanto dell'inferenza quanto dell'addestramento dei modelli di IA.
3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoPiù che tanti e agguerriti il problema è che i grossi clienti cercheranno di sviluppare le soluzioni in casa ottimizzandoli per i propri scenari
Con la possibilità dei clienti medio piccoli di rivolgersi a soluzioni custum ( come gia offre AMD in altri settori)
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".