Tachyum vuole 'democratizzare l'IA' con il suo Processore Universale: nasce Prodigy ATX Platform
Dopo anni di ritardi e promesse, Tachyum ha parlato di Prodigy ATX Platform, una piattaforma che punta a democratizzare l'IA offrendo altissime prestazioni - figlie del Processore Universale Prodigy - a un prezzo umano.
di Manolo De Agostini pubblicata il 10 Febbraio 2024, alle 09:01 nel canale ProcessoriProdigyTachyum
Dopo aver annunciato che il Processore Universale Prodigy debutterà entro l'anno (dopo anni di promesse e ritardi), Tachyum ha diffuso un white paper nel quale parla di "Prodigy ATX Platform", un sistema che "democratizzerà l'IA".
Il sistema, a partire da 5000 dollari, per ora non è altro che la foto di un case bianco, ma Tachyum ha illustrato quelle che saranno le sue caratteristiche tecniche e le potenzialità.
Il sistema single-socket ruota attorno a un Processore Universale Prodigy con 48 o 96 core, capace di lavorare fino a 5,7 GHz con 8 controller di memoria DDR5 attivi (la versione da 192 dovrebbe averne 16). Accanto vi sono 16 slot DIMM per moduli DDR5-6400 da 64 GB (2 DIMM per canale), ma nel Prodigy ATX Platform da 5000 dollari la memoria installata sarà solo pari a 256 GB.
La piattaforma è dotata di 3 slot PCI Express 5.0, uno slot x16 a 16 linee e due slot e 2 x16 con 8 linee. Ci sono anche 3 slot M.2 NVMe 2280 con interfaccia PCIe 5.0 e sei porte SATA. Oltre al connettore ATX a 24 pin, sulla scheda madre sono presenti anche quattro connettori ATX a 8 pin. Il tutto è accompagnato da un alimentatore da 1200W.
Nel suo documento, Tachyum parla di come gestirà la propria offerta: ad esempio, prevede di offrire soluzioni con 96 core senza creare un die ad hoc, ma suddividendo il 192 core in due istanze. "La piattaforma beneficia dell'esclusiva soluzione "half die" di Prodigy che consente a un dispositivo completo da 192 core di funzionare come due dispositivi separati da 96 core. Questa architettura fornisce a Tachyum una maggiore resa per i dispositivi a 96 core, riducendo i costi della piattaforma e contribuendo a renderla ancora più conveniente".
Quanto alle prestazioni, Tachyum si concentra sugli scenari in cui la memoria gioca il ruolo fondamentale. Stando a quanto racconta, un sistema Prodigy con 192 core e 1 Terabyte di memoria, grazie al proprio formato dati (TAI a 2 bit e TAI a 4 bit), ottimizzato per le applicazioni AI, sarebbe in grado di gestire un modello ChatGPT 4 con 1,7 trilioni (migliaia di miliardi di parametri) come 52 GPU NVIDIA H100, acceleratori che costano e consumano molto di più.
Anche nel caso di una Prodigy ATX Platform con 96 o 48 core dovrebbe essere possibile addestrare un'istanza ChatGPT, cosa non è possibile con un singolo acceleratore H100. Una piattaforma Tachyum, inoltre, può gestire 31 istanze Llama2 mentre i tipici sistemi x86 con un acceleratore H100 dovrebbero essere in grado di eseguirne solo una. Insomma, tante e nuove belle parole e promesse da Tachyum, ma bisognerà aspettare per vedere se si concretizzeranno in un prodotto con premesse a tratti rivoluzionarie.
10 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDatemi un secondo che devo investire tutti i miei risparmi su di loro...
Se fosse vero quanto dichiarano e rispettati i tempi, ma sembra siano noti per i loro ritardi, perché i vari provider che stanno puntando sul IA hanno fatto milioni di dollari di ordini a NVidia accettando tempi di consegna lunghi?
Mi ricorda Rambus/Transmeta che nel loro piccolo dovevano asfaltare le soluzioni sul mercato ma non è successo
Se fosse vero quanto dichiarano e rispettati i tempi, ma sembra siano noti per i loro ritardi, perché i vari provider che stanno puntando sul IA hanno fatto milioni di dollari di ordini a NVidia accettando tempi di consegna lunghi?
Mi ricorda Rambus/Transmeta che nel loro piccolo dovevano asfaltare le soluzioni sul mercato ma non è successo
Dai transmeta con i sui vliw era promettente e tutto sommato valido ( anche per i costi), gli è mancata la potenza commerciale per ritagliarsi una buona fetta di mercato.
Su rambus concondo al 100%
Ho cercato di leggere più articoli possibili sulla IA ed in effetti,le GPU non sono efficienti,solo efficaci,si usano solo perché è già pappa pronta al momento,per questo i nomi grossi stanno cercando di svilupparsi processori proprietari per svolgere i calcoli per la IA, che consumino meno energia e siano più veloci nello svolgere le operazioni.
Tachyum potrebbe sul serio aver creato un processore veramente efficiente per fare quel tipo di calcoli, probabilmente per svolgere altri compiti no ma quel tipo di calcoli che servono per la IA,potrebbe essere che la loro architettura sia veramente azzeccata.
La prima versione (2018) era basata su una architettura VLIW, poi in base a quel che avevano ottenuto decisero di riprogettare il tutto (2022) con un architettura più convenzionale ma comunque con un decoder capace di inviare in esecuzione 8 istruzioni per ciclo, con jump prediction e teoricamente capace di superare i 5GHz di clock.
Per ora l'unica notizia positiva è che sembrano convinti di quello che hanno attualmente, ma fin quando non esce un prodotto testabile da terze parti c'è da essere scettici.
Se nel migliore dei casi avesse un controller di memoria a 16 canali, complessivamente sarebbero 800 GB/s di banda. Ottimo per un sistema DDR5, ma nulla di rivoluzionario.
Non è chiaro che cosa intendano esattamente per democratizzare in questo caso. È presentato come un server da inferenza, ma la banda di memoria non è molto elevata per tali usi. 52 NVidia H100 80GB offirebbero 3 TB/s di banda ciascuna (156 TB/s complessivamente).
Interessante. Che performances e performances/watt hanno le Gooogle TPU rispetto a H100 e ADA?
Se nel migliore dei casi avesse un controller di memoria a 16 canali, complessivamente sarebbero 800 GB/s di banda. Ottimo per un sistema DDR5, ma nulla di rivoluzionario.
Non è chiaro che cosa intendano esattamente per democratizzare in questo caso. È presentato come un server da inferenza, ma la banda di memoria non è molto elevata per tali usi. 52 NVidia H100 80GB offirebbero 3 TB/s di banda ciascuna (156 TB/s complessivamente).
Probabilmente pensano di avere un rapporto prestazioni/prezzo molto più alto.
Ad esempio, una scheda Tachyon Prodigy da 192 processori può moltare fino ad 1TB di ram, se il collo di bottiglia è la quantità di ram, sono circa 12 volte la ram massima di una singola H100.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".