Maia 100 e Cobalt 100, i processori custom di Microsoft sotto il segno di IA e Azure
Microsoft ha creato due chip custom per la propria infrastruttura Azure: l'acceleratore Maia 100 è ottimizzato per attività di intelligenza artificiale, mentre la CPU Cobalt 100 è un processore ARM per carichi di lavoro generici su cloud.
di Manolo De Agostini pubblicata il 16 Novembre 2023, alle 06:31 nel canale ProcessoriARMAzureMicrosoft
Durante l'evento Ignite, Microsoft ha svelato due processori custom, uno destinato all'intelligenza artificiale e l'altro a carichi di lavoro cloud generali: entrambi sono indirizzati alla propria infrastruttura Azure. I chip inizieranno a essere inseriti nei datacenter di Microsoft all'inizio del prossimo anno e, oltre a supportare il lavoro interno, saranno accessibili anche ai clienti Azure.

La prima soluzione è un acceleratore AI chiamato Maia 100, rivolto ai datacenter che eseguono prodotti come Windows Copilot, Bing Chat e, più in generale, alla gestione dei modelli linguistici di grandi dimensioni. Questo chip è realizzato a 5 nanometri presso TSMC e integra 105 miliardi di transistor. Al momento non ci sono informazioni sulla sua architettura.
"Siamo rimasti entusiasti quando Microsoft ha condiviso per la prima volta i progetti per il chip Maia e abbiamo lavorato insieme per perfezionarlo e testarlo con i nostri modelli", ha dichiarato Sam Altman, CEO di OpenAI.
Il chip sarà montato in rack custom raffreddati a liquido che offrono fino a 4 chip. "I server di Maia sono progettati con un protocollo di rete basato su Ethernet totalmente personalizzato, con larghezza di banda aggregata di 4,8 terabit per acceleratore per consentire una migliore scalabilità e prestazioni del carico di lavoro end-to-end", ha spiegato Microsoft.
Il secondo processore, chiamato Cobalt 100, sarà invece integrato nei datacenter di Azure: si tratta di un chip ARM - prevede 128 core Armv9 - e Microsoft lo considera ideale per eseguire carichi di lavoro cloud generici con maggiore efficienza rispetto alle soluzioni hardware attuali. Anche Cobalt dovrebbe essere prodotto a 5 nm da TSMC.
Al momento non ci sono informazioni specifiche sulle prestazioni, ma si parla di un miglioramento fino al 40% rispetto all'attuale generazione di server ARM commerciali implementata nel cloud di Azure.

La casa di Redmond considera la realizzazione di processori custom come l'ultimo tassello di una strategia che negli anni l'ha portata a ottimizzare tutta l'infrastruttura Azure per distinguersi dalla concorrenza di Google e Amazon - anch'esse impegnate da anni nella progettazione di chip custom per i propri server.
In questo modo, inoltre, Microsoft riduce la dipendenza dalla filiera tradizionale, potendo optare per soluzioni ingegnerizzate internamente qualora le proposte dei partner come NVIDIA non fossero disponibili perché molto richieste. Infine, progettandosi i chip in casa Microsoft può avere un controllo maggiore su target prestazionali e costi complessivi, dai consumi energetici fino al costo del singolo componente hardware.
L'arrivo di Maia 100 e Cobalt 100 non significa l'addio all'hardware dei fornitori canonici come Intel, AMD e NVIDIA, almeno non al momento. A Ignite Microsoft ha infatti annunciato un'espansione delle sue partnership con NVIDIA e AMD per offrire la potenza di calcolo degli acceleratori AI NVIDIA H100 e H200 nel cloud, nonché AMD Instinct MI300X.










Test ride con Gowow Ori: elettrico e off-road vanno incredibilmente d'accordo
Recensione OnePlus 15: potenza da vendere e batteria enorme dentro un nuovo design
AMD Ryzen 5 7500X3D: la nuova CPU da gaming con 3D V-Cache per la fascia media
4,9 miliardi su Google: Buffett sfida il suo stesso passato e ristruttura il portafoglio
Google ha svelato un agente AI che può giocare ai videogiochi e interagire con mondi virtuali 3D
Tesla cambia idea: è in arrivo l'integrazione con CarPlay?
Anche Firefox punta sull'intelligenza artificiale: navigare il web sarà diverso con AI Window
Stop alle super-accelerazioni delle auto elettriche? La Cina propone nuove norme e pensa alla sicurezza
Osservatorio AGCOM: sempre più accessi in fibra, Iliad non si ferma e Temu conquista gli italiani
Sempre più IA su Spotify: arrivano i riassunti degli audiolibri, per le parti già ascoltate
iMac M4 crolla a 1.199€ con risparmio di 330€ rispetto al listino: il tutto-in-uno Apple più potente e sottile è in super offerta su Amazon
Nintendo Switch 2: in rilascio un nuovo aggiornamento con tanti miglioramenti
Core Ultra 9 290K Plus, Core Ultra 7 270K Plus e Core Ultra 5 250K Plus: le CPU Arrow Lake Refresh in arrivo
Prezzo Black Friday per le super cuffie Sony WH-1000XM5SA, 229€, in offerta a 249€ anche le Sony WH-1000XM5, identiche, cambia la custodia
Crollano i prezzi della cuffie Beats col Black Friday: Studio Pro al minimo assoluto, Studio Buds+ a 95€ e altri prezzi mai visti prima
ASUS ROG Matrix RTX 5090 costa 4000 dollari: solo 1.000 unità per una scheda elitaria
Grazie ai dati di ESA il calcolo della traiettoria della cometa interstellare 3I/ATLAS è più preciso









5 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoIo sono curioso di vedere come tutta questa roba fatta in 5 minuti possa essere digerita dai "professionisti" (si le virgolette, e non cambio opinione) che hanno rotto le scatole per trent'anni perché "senza integrazione noi non ci stiamo siamo abituati col pentium e così restiamo che funziona tutto"
Abbiamo la mi300x che rende linearmente e che tutto sommato è l'acceleratore più potente, poi le hopper che stanno vicino ma "con il nostro gIaNt KeRnEl OmNiVeRsE iNfErEnCe guarda non sappiamo neanche noi quanto va compra compra", e poi tutte queste soluzioni che non si sa neanche come si accendono
Mining .... ASICS
AI .... ChipCustom AI
Rendering Raytracyng Puro e non Ibrido.... Larrabee...se non avessero chiuso il progetto
Ecc....
nVidia ha solo il vantaggio di aver Acquisito e Migliorato l'hardware gaming, portandolo a poter coprire altri settori, ma per il resto è un vantaggio detenuto solo per la ricerca quasi nulla fatta da tutta la concorrenza.
Visto il reale guadagno tutti ci si buttano a capofitto... DOPO.
Attualmente nVidia si trova come INTEL quando era al suo apice, stessa identica posizione, ma senza le sue fonderie e strizzando un poco troppo l'occhio al mercato cinese che ci ha fatto passare DUE ANNI di merda... con tutto il venduto in Asia per risparmiare soldi sui trasporti.
Attualmente nVidia si trova come INTEL quando era al suo apice, stessa identica posizione, ma senza le sue fonderie e strizzando un poco troppo l'occhio al mercato cinese che ci ha fatto passare DUE ANNI di merda... con tutto il venduto in Asia per risparmiare soldi sui trasporti.
Cos'e' che ci ha fatto passare due anni di merda?
Dove sei stato durante il covid.... dove nVidia per faturizzare al massimo pre vendeva tutte le sue schede video per il mercato cinese lasciandoci nelle mani di bagarini.
70% della produzione era già venduta e partiva da Taiwan al mercato Cinese, tanto che li le schede le trovavi tranquillamente.
E ora con l'AI Cinese si riprende.... tanto e bello pagare le 4090 2000€
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".