|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#1 |
|
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75166
|
Link alla notizia: https://www.hwupgrade.it/news/mercat...as_148633.html
OpenAI ha siglato un accordo pluriennale con Cerebras per integrare sistemi AI a bassa latenza nel proprio stack di inferenza. L'intesa, dal valore stimato superiore ai 10 miliardi di dollari, mira ad accelerare le risposte dei modelli e a scalare l'AI in tempo reale. Click sul link per visualizzare la notizia. |
|
|
|
|
|
#2 |
|
Senior Member
Iscritto dal: May 2004
Messaggi: 8456
|
altro che gpu nvidia questo come specifiche da sempre li asfalta tutti se solo avesse lo stesso supporto software
|
|
|
|
|
|
#3 |
|
Senior Member
Iscritto dal: Sep 2022
Messaggi: 1887
|
Beh da sempre CPU o altro specifici rendono meglio, Nvidia per ora ha visto lontano coi tensore cores ed in effetti da quello che si lege su github, ci sono molte AI offline che teoricamente anche con una 3050 fanno miracoli, quindi ha visto bene col senno di poi, poi in futuro avremo un ibrido CPU dedicata o mix con supporto GPU e poi in futuro, futuro.. si vedra'
__________________
Le regole che mi ha insegnato un bravo programmatore e che, secondo me, dovremmo sempre ricordare: 1) Un PC (anche cell, tablet, ecc..) sicuro e' PC spento 2) Una "cosa" (HW e/o Software) se funziona e non si hanno particolari esigenze non si cambia 3) Tutto quello che e' connesso ad internet e' per sua natura vulnerabile |
|
|
|
|
|
#4 |
|
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6339
|
Giusto per chiarire, Cerebras ha come unico prodotto i Wafer Scale Engine.
In pratica fotolitografano su un unico wafer un intero sistema di calcolo con core, banchi di SRAM, moduli di routing ed interconnessione tra i blocchi e con l'esterno, ecc. ecc. Tale approccio permette di raggiungere prestazioni superiori ai multi-chip package, ma ha costi elevati sotto tutti gli aspetti ed anche se il sistema di routing permette di aggirare ed escludere "blocchi" fallati, c'é il problema che serve un wafer intero per ogni singolo WSE prodotto quindi la resa produttiva é comunque piú bassa rispetto a chip "normali". |
|
|
|
|
|
#5 | |
|
Senior Member
Iscritto dal: Nov 2002
Messaggi: 6459
|
Quote:
|
|
|
|
|
|
|
#6 |
|
Senior Member
Iscritto dal: May 2004
Messaggi: 8456
|
|
|
|
|
|
|
#7 |
|
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5869
|
Con quali soldi?
Nessuno dice che open IA è indebitata fino al midollo? |
|
|
|
|
|
#8 |
|
Senior Member
Iscritto dal: Nov 2002
Messaggi: 6459
|
|
|
|
|
|
|
#9 | |
|
Senior Member
Iscritto dal: May 2004
Messaggi: 8456
|
Quote:
anche il sistema Cerebras è espandibile e configurabiel trov itutto sul sito puoi cabiare quello che vuoi attorno all'acceleratore base |
|
|
|
|
|
|
#10 |
|
Senior Member
Iscritto dal: Nov 2002
Messaggi: 6459
|
|
|
|
|
|
|
#11 | |
|
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6339
|
Quote:
Che io sappia attualmente i WSE vengono usati principalmente per l'inferenza ma non per il training; visto che il training di nuovi modelli non da piú miglioramenti che giustificano gli investimenti, tutti stanno cercando di superare i concorrenti migliorando il lato inferenza sia a livello di software che di hardware. |
|
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 09:33.




















