DeepL potenzia la sua IA linguistica con gli acceleratori GB200 di NVIDIA

DeepL, tra le principali società nel campo dell'IA linguistica, sarà tra le prime ad implementare a livello commerciale NVIDIA DGX SuperPOD con sistemi DGX GB200.
di Manolo De Agostini pubblicata il 31 Ottobre 2024, alle 12:01 nel canale Server e WorkstationDeepLNVIDIABlackwell
DeepL ha annunciato che sarà tra le prime aziende a implementare a livello commerciale NVIDIA DGX SuperPOD con sistemi DGX GB200. L'hardware di NVIDIA, che entrerà in funzione a metà del 2025, permetterà alla piattaforma di IA linguistica di DeepL di addestrare nuovi modelli e sviluppare funzioni e prodotti ancora più innovativi.
Si tratta del terzo NVIDIA DGX SuperPOD a essere impiegato da DeepL, e vanta una potenza di calcolo superiore alla sua precedente ammiraglia, DeepL Mercury, basata su sistemi DGX H100 e installata in Svezia un anno fa. In quello stesso centro di elaborazione dati svedese troverà casa il nuovo sistema SuperPOD.
"DeepL è sempre stata un'azienda orientata alla ricerca, il che ci ha permesso di sviluppare un'IA linguistica per la traduzione che continua a surclassare le altre soluzioni presenti sul mercato", dichiara Jarek Kutylowski, CEO e Founder di DeepL. "Quest'ultimo investimento nel computing accelerato di NVIDIA darà ai nostri team di ricerca e di ingegneria la potenza necessaria per continuare a innovare e portare sul mercato gli strumenti e le funzioni di IA linguistica che i nostri clienti conoscono e apprezzano".
Cuore del sistema è GB200 Grace Blackwell, un acceleratore che fonde su un'unica scheda una CPU Grace e due GPU Blackwell. La CPU Grace è identica a quella vista su GH100/GH200, quindi ritroviamo i 72 core Neoverse V2, mentre la capacità di memoria combinata raggiunge 864 GB - 2 x 192 GB HBM3E per i due acceleratori Blackwell e 480 GB di memoria LPDDR5X collegati alla CPU Grace.
La connessione tra la CPU Grace e le GPU Blackwell avviene tramite un'interconnessione bidirezionale NVLink C2C a 900 GB/s. Esternamente, ogni acceleratore GB200 prevede un collegamento NVLink bidirezionale a 1,8 TB/s. GB200 è capace di offrire prestazioni IA di 40 petaflops con calcoli FP4.
"I clienti che utilizzano applicazioni basate sull'IA linguistica si aspettano risposte quasi istantanee. È fondamentale quindi disporre di un'infrastruttura IA potente sia per la creazione sia per l'implementazione dell'IA", ha dichiarato Charlie Boyle, vicepresidente della piattaforma NVIDIA DGX di NVIDIA. "Il nuovissimo NVIDIA DGX SuperPOD accelererà la ricerca e lo sviluppo dell'IA linguistica di DeepL, consentendo agli utenti di comunicare in modo più efficace in qualsiasi lingua e cultura".
Questa novità è l'ultima di una lunga serie di traguardi raggiunti da DeepL nel 2024. L'azienda ha da poco annunciato l'apertura di un hub tecnologico a New York, diversi aggiornamenti alla funzione del glossario e il suo modello linguistico di grandi dimensioni (LLM) di nuova generazione, che oltre a superare GPT-4, Google e Microsoft per qualità di traduzione stabilisce un nuovo standard di personalizzazione, precisione e prestazione.
DeepL è stata inoltre recentemente inserita nella lista Forbes Cloud 100 e ha annunciato di aver raccolto a maggio un nuovo investimento da 300 milioni di dollari con una valutazione di 2 miliardi di dollari in un round guidato dalla società di investimenti Index Ventures.
0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDevi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".