|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/skvide...ni_114554.html
Secondo gli analisti di TrendForce, nel prossimo futuro la richiesta di GPU da parte di ChatGPT potrebbe superare le 30.000 unità. Il servizio è stato addestrato finora su GPU NVIDIA, in pole position quindi per colmare la nuova domanda. Ma il boom dell'AI generativa potrebbe giovare anche ad AMD e Intel. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5104
|
IBM sosteneva che le GPU vanno bene per le IA ma non sono l'ideale per queste cose,difatti ha dimostrato che roba a 8 e 16 bit semplice,va meglio di cluster di schede video.
Boh |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Sep 2022
Messaggi: 1667
|
Sicuramente e' cosi' come dici, forse per ora non abbiamo una tecnologia migliore da usare nelle AI e quindi usano le GPU.. boh..
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5104
|
Big Blue è stata la pioniera della IA e altre tecnologie,le GPU sono efficaci ma non efficienti,@UtenteHD,attualmente da come ha fatto intendere IBM,bisognerebbe costruire soc fatti ad hoc.
|
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Jul 2007
Città: Sicilia
Messaggi: 6190
|
Non sara' l'ideale, ma e' una tecnologia affermata, disponibile e affidabile, e le aziende la vogliono adesso, non quando future tecnologie saranno pronte in massa in futuro. Inoltre anche quando saranno tecnologie pronte, dovranno superare la barriera d'ingresso di un mondo orientato alle GPU, con esperienza in quel settore ed una marea di codice e librerie gia' pronto... Non e' sempre detto che la tecnologia migliore diventi automaticamente quella piu' diffusa, l'importante e' arrivare per primi a superare la massa critica di adozione (vedi MP3 vs altri formati, VHS vs Betamax tanto per fare i due esempi fra i piu' famosi).
__________________
Non abbiamo ereditato il mondo dai nostri padri L'abbiamo preso in prestito dai nostri figli |
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Dec 2001
Città: Planet Saturn (♄)
Messaggi: 17466
|
"NVIDIA si frega le mani?"
Secondo me hanno già "i calli", da parecchio ! ![]() |
![]() |
![]() |
![]() |
#7 | |
Senior Member
Iscritto dal: Sep 2022
Messaggi: 1667
|
Quote:
Mi sa che con futuri chip e tecnologia appostiti di massa le IA saranno come nel film attuali, da vedere poi se nel positivo o negativo.. |
|
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Feb 2004
Messaggi: 5984
|
ora che stanno smettendo i minatori cominciano le IA.. non c'è pace per le GPU (e i relativi prezzi)
|
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Nov 2010
Messaggi: 367
|
ma le mani non si sfregano?
![]() |
![]() |
![]() |
![]() |
#10 |
Senior Member
Iscritto dal: Dec 2001
Città: Planet Saturn (♄)
Messaggi: 17466
|
|
![]() |
![]() |
![]() |
#11 |
Senior Member
Iscritto dal: Sep 2013
Messaggi: 8977
|
|
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 5104
|
Comunemente per far capire meglio il discorso delle GPU,tirando in ballo le cripto,si usavano all'inizio le GPU per Bitcoin ad esempio,poi sono venuti gli Asics che sono molto meglio, però hanno iniziato con le GPU e alcune cripto monete continuano a usare le GPU.
Comincia ad avere un senso il vecchio progetto Intel Larrabee,a livello di scheda video,anche se su carta era una idea intelligente (era una gpu programmabile per nuove funzioni,mentre le altre no) era una chiavica in ambito grafico anche se metteva tantissimi core x86 a disposizione,infatti fu utilizzata sui server come acceleratore di carichi. Vado a memoria,IBM aveva provato a fare esperimenti con la sua vecchia architettura 6800/6820 etc con processo produttivo attuale e con una architettura semplificata,mettendo a confronto le schede video che c'erano sul mercato,Nvidia e Amd e si parlava di top gamma,,aveva avuto come risultati una migliore velocità di esecuzione e consumi decisamente ridotti. Se guardate,adesso i colossi del web,tenderebbero a voler loro progettarsi i microprocessori e affini, perché sembra strano,ma se devi fare un lavoro specifico,non è detto che una Quadro o una processore da server (Amd o Intel) sia la soluzione migliore,difatti Microsoft,Google,Facebook e tanti altri stanno pensando di cucirsi addosso hardware fatto ad hoc. Poi che attualmente usino le GPU per la IA secondo me è per praticità,per progettare un sistema ci vogliono almeno due o tre anni. |
![]() |
![]() |
![]() |
#13 |
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
VEROGNA !
Fuori i miners ora entrano sti sbruffoni ? |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 14:29.