Tachyum vuole 'democratizzare l'IA' con il suo Processore Universale: nasce Prodigy ATX Platform

Tachyum vuole 'democratizzare l'IA' con il suo Processore Universale: nasce Prodigy ATX Platform

Dopo anni di ritardi e promesse, Tachyum ha parlato di Prodigy ATX Platform, una piattaforma che punta a democratizzare l'IA offrendo altissime prestazioni - figlie del Processore Universale Prodigy - a un prezzo umano.

di pubblicata il , alle 09:01 nel canale Processori
ProdigyTachyum
 

Dopo aver annunciato che il Processore Universale Prodigy debutterà entro l'anno (dopo anni di promesse e ritardi), Tachyum ha diffuso un white paper nel quale parla di "Prodigy ATX Platform", un sistema che "democratizzerà l'IA".

Il sistema, a partire da 5000 dollari, per ora non è altro che la foto di un case bianco, ma Tachyum ha illustrato quelle che saranno le sue caratteristiche tecniche e le potenzialità.

Il sistema single-socket ruota attorno a un Processore Universale Prodigy con 48 o 96 core, capace di lavorare fino a 5,7 GHz con 8 controller di memoria DDR5 attivi (la versione da 192 dovrebbe averne 16). Accanto vi sono 16 slot DIMM per moduli DDR5-6400 da 64 GB (2 DIMM per canale), ma nel Prodigy ATX Platform da 5000 dollari la memoria installata sarà solo pari a 256 GB.

La piattaforma è dotata di 3 slot PCI Express 5.0, uno slot x16 a 16 linee e due slot e 2 x16 con 8 linee. Ci sono anche 3 slot M.2 NVMe 2280 con interfaccia PCIe 5.0 e sei porte SATA. Oltre al connettore ATX a 24 pin, sulla scheda madre sono presenti anche quattro connettori ATX a 8 pin. Il tutto è accompagnato da un alimentatore da 1200W.

Nel suo documento, Tachyum parla di come gestirà la propria offerta: ad esempio, prevede di offrire soluzioni con 96 core senza creare un die ad hoc, ma suddividendo il 192 core in due istanze. "La piattaforma beneficia dell'esclusiva soluzione "half die" di Prodigy che consente a un dispositivo completo da 192 core di funzionare come due dispositivi separati da 96 core. Questa architettura fornisce a Tachyum una maggiore resa per i dispositivi a 96 core, riducendo i costi della piattaforma e contribuendo a renderla ancora più conveniente".

Quanto alle prestazioni, Tachyum si concentra sugli scenari in cui la memoria gioca il ruolo fondamentale. Stando a quanto racconta, un sistema Prodigy con 192 core e 1 Terabyte di memoria, grazie al proprio formato dati (TAI a 2 bit e TAI a 4 bit), ottimizzato per le applicazioni AI, sarebbe in grado di gestire un modello ChatGPT 4 con 1,7 trilioni (migliaia di miliardi di parametri) come 52 GPU NVIDIA H100, acceleratori che costano e consumano molto di più.

Anche nel caso di una Prodigy ATX Platform con 96 o 48 core dovrebbe essere possibile addestrare un'istanza ChatGPT, cosa non è possibile con un singolo acceleratore H100. Una piattaforma Tachyum, inoltre, può gestire 31 istanze Llama2 mentre i tipici sistemi x86 con un acceleratore H100 dovrebbero essere in grado di eseguirne solo una. Insomma, tante e nuove belle parole e promesse da Tachyum, ma bisognerà aspettare per vedere se si concretizzeranno in un prodotto con premesse a tratti rivoluzionarie.

10 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
LB210 Febbraio 2024, 09:05 #1
Vedrete che scam è prodigy, diamo il tempo che venga investigata
bonzoxxx10 Febbraio 2024, 09:22 #2
In effetti sulla carta le prestazioni sono davvero troppo "troppe".
dav1deser10 Febbraio 2024, 09:43 #3
Aaahh bè, nella news precedente ero estremamente scettico sulle reali capacità di questo processore, ma ora che hanno mostrato un NZXT H5 Flow con un'etichetta appiccicata sopra, come posso avere ancora dei dubbi?
Datemi un secondo che devo investire tutti i miei risparmi su di loro...
io78bis10 Febbraio 2024, 09:46 #4
A parte che non so cosa voglia dire usare i suoi formati dati (2 o 4 bit) e se richieda conversioni ± onerose sugli algoritmi esistenti.

Se fosse vero quanto dichiarano e rispettati i tempi, ma sembra siano noti per i loro ritardi, perché i vari provider che stanno puntando sul IA hanno fatto milioni di dollari di ordini a NVidia accettando tempi di consegna lunghi?

Mi ricorda Rambus/Transmeta che nel loro piccolo dovevano asfaltare le soluzioni sul mercato ma non è successo
Piedone111310 Febbraio 2024, 12:22 #5
Originariamente inviato da: io78bis
A parte che non so cosa voglia dire usare i suoi formati dati (2 o 4 bit) e se richieda conversioni ± onerose sugli algoritmi esistenti.

Se fosse vero quanto dichiarano e rispettati i tempi, ma sembra siano noti per i loro ritardi, perché i vari provider che stanno puntando sul IA hanno fatto milioni di dollari di ordini a NVidia accettando tempi di consegna lunghi?

Mi ricorda Rambus/Transmeta che nel loro piccolo dovevano asfaltare le soluzioni sul mercato ma non è successo


Dai transmeta con i sui vliw era promettente e tutto sommato valido ( anche per i costi), gli è mancata la potenza commerciale per ritagliarsi una buona fetta di mercato.
Su rambus concondo al 100%
supertigrotto10 Febbraio 2024, 16:36 #6
Se non è una bufala (come il caso Nikola) potrebbero avere creato un sistema molto efficiente,non è da escludere questa cosa,basta vedere come sono andate le cose per i Bitcoin,prima minati con le schede video e poi sono nati gli Asics,più veloci ed efficienti.
Ho cercato di leggere più articoli possibili sulla IA ed in effetti,le GPU non sono efficienti,solo efficaci,si usano solo perché è già pappa pronta al momento,per questo i nomi grossi stanno cercando di svilupparsi processori proprietari per svolgere i calcoli per la IA, che consumino meno energia e siano più veloci nello svolgere le operazioni.
Tachyum potrebbe sul serio aver creato un processore veramente efficiente per fare quel tipo di calcoli, probabilmente per svolgere altri compiti no ma quel tipo di calcoli che servono per la IA,potrebbe essere che la loro architettura sia veramente azzeccata.
LMCH10 Febbraio 2024, 17:20 #7
Tachyum inizialmente voleva realizzare una cpu ad alta efficienza con integrata un unità vettoriale molto ampia (1024 bit).
La prima versione (2018) era basata su una architettura VLIW, poi in base a quel che avevano ottenuto decisero di riprogettare il tutto (2022) con un architettura più convenzionale ma comunque con un decoder capace di inviare in esecuzione 8 istruzioni per ciclo, con jump prediction e teoricamente capace di superare i 5GHz di clock.
Per ora l'unica notizia positiva è che sembrano convinti di quello che hanno attualmente, ma fin quando non esce un prodotto testabile da terze parti c'è da essere scettici.
s12a10 Febbraio 2024, 18:15 #8
16 slot di memoria DDR5-6400 (~50 GB/s).
Se nel migliore dei casi avesse un controller di memoria a 16 canali, complessivamente sarebbero 800 GB/s di banda. Ottimo per un sistema DDR5, ma nulla di rivoluzionario.

Non è chiaro che cosa intendano esattamente per democratizzare in questo caso. È presentato come un server da inferenza, ma la banda di memoria non è molto elevata per tali usi. 52 NVidia H100 80GB offirebbero 3 TB/s di banda ciascuna (156 TB/s complessivamente).
ZeroSievert10 Febbraio 2024, 23:44 #9
Originariamente inviato da: enos76
Dipende cosa intendi per GPU. Le Nvidia enterprise (H100 e RTX ADA) hanno consumi relativamente bassi e possiedono core dedicati alle operazioni di IA su matrici (tecnologia Tensor di quarta generazione) in particolare con numeri piccoli ad ottimizzazione "opportunistica" (tecnologia Sparsity). Solo le AMD MI300 (non ancora rilasciate) si avvicinano in teoria alle stesse performance/watt con elaborazioni di IA. Gli acceleratori Gaudi di Intel/Habana che sono dedicati alla IA non sembrano avere prestazioni o efficienza paragonabili.


Interessante. Che performances e performances/watt hanno le Gooogle TPU rispetto a H100 e ADA?
LMCH11 Febbraio 2024, 10:38 #10
Originariamente inviato da: s12a
16 slot di memoria DDR5-6400 (~50 GB/s).
Se nel migliore dei casi avesse un controller di memoria a 16 canali, complessivamente sarebbero 800 GB/s di banda. Ottimo per un sistema DDR5, ma nulla di rivoluzionario.

Non è chiaro che cosa intendano esattamente per democratizzare in questo caso. È presentato come un server da inferenza, ma la banda di memoria non è molto elevata per tali usi. 52 NVidia H100 80GB offirebbero 3 TB/s di banda ciascuna (156 TB/s complessivamente).


Probabilmente pensano di avere un rapporto prestazioni/prezzo molto più alto.
Ad esempio, una scheda Tachyon Prodigy da 192 processori può moltare fino ad 1TB di ram, se il collo di bottiglia è la quantità di ram, sono circa 12 volte la ram massima di una singola H100.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^