|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/web/ch...ai_116178.html
Una stima, basata su GPT-3, rivela quale può essere il costo giornaliero per il mantenimento e l'operatività alla base dell'AI conversazionale Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Nov 2006
Messaggi: 6820
|
700 milioni di $ al giorno mi sembra decisamente fuori misura.
Forse era 700 mila? Parliamo di 255 miliardi annui, 15% del PIL italiano, 4 volte piu grande dell'intero fatturato di Amazon Web Service che rappresenta il 20/30% di internet. Ultima modifica di Vul : 24-04-2023 alle 15:21. |
![]() |
![]() |
![]() |
#3 | |
Senior Member
Iscritto dal: Feb 2004
Messaggi: 5851
|
Quote:
Magari sono 700 mila al giorno oppure 700 milioni all'anno.. |
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Oct 2003
Città: Tra la mia amata Trento e Curitiba
Messaggi: 19313
|
Ho letto un altro articolo qualche ora fa e parlavano di 700.000 al gg
Che errore vergognoso di tanto sciocco
__________________
PSN wiston75 | PS5 + Series X + Series S | iPad Air M2 | iPhone 15 Pro Max | Watch Series 8 | MacBook Air M3 | Monitor Samsung 4K 28" U28R550 + LG 4K 32” UL750| NAS WD MyCloudEX2 2x2TB | What's wrong????? | Una foto al dì | Che bello il Brasile del Sud! ![]() |
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Nov 2006
Messaggi: 6820
|
|
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Aug 2017
Messaggi: 1275
|
Sì per la precisione secondo il loro modello sono 694444$ al giorno, con un costo per query di 0.36 centesimi.
Calcolano anche che se Google dovesse gestire lo stesso numero di ricerche di ora con un LLM servirebbero 100 miliardi di dollari solo di hardware Ultima modifica di pengfei : 24-04-2023 alle 15:48. |
![]() |
![]() |
![]() |
#7 | |
Senior Member
Iscritto dal: Nov 2006
Messaggi: 6820
|
Quote:
Tanto per dire, con 100 miliardi compri tutte le gpu prodotte di gpu di amd e nvidia di quattro/cinque anni di produzione che include tutte le gpu discrete prodotte da nvidia/amd da gamers, a supercomputers a data centers... |
|
![]() |
![]() |
![]() |
#8 | ||
Senior Member
Iscritto dal: Aug 2017
Messaggi: 1275
|
Quote:
Quote:
![]() Però è una notizia del 2020, magari ora a trovare 500 mila server di seconda mano si risparmia ![]() |
||
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Nov 2002
Messaggi: 5437
|
Anche a me sembra un numero esagerato, sono solo tre ordini di differenza rispetto all'articolo originale, ma dettagli
![]() Ultima modifica di Unrue : 24-04-2023 alle 16:56. |
![]() |
![]() |
![]() |
#10 | |
Senior Member
Iscritto dal: Nov 2006
Messaggi: 6820
|
Quote:
Va da solo che: - le risposte possono essere messe in cache, non serve rifare ogni volta la stessa computazione a meno che non ce ne sia un grandissimo motivo. Esempio, la parola gmail e' ricercata 67 volte di piu di quella "taylor swift" (termine di ricerca comunque comunissimo), ma non serve a nulla passare queste chiavi di ricerca ad un chatbot (ne taylor swift ne gmail). E' ovvio che se un utente cerca quelle due chiavi Google non riscannerizza tutto il suo database di miliardi di pagine, lo fa solo ogni tanto. - le risposte piu interessanti sono quelle che portano alla combinazione di risultati nuovi. esempio: "quanto guanciale mi serve per 3 persone per la carbonara se voglio fare 100 grammi di pasta a testa". Ergo, rivediamo i numeri: -il 95% e piu di ricerche non necessita di chatgpt - questo porta chatgpt ad essere necessario solo nel 5% delle risposte - di questo 5% tante possono essere cacheate (quindi non vengono ricomputate). Ad esempio se chiedessi a chatgpt la domanda di prima del guanciale, non serve rigenerarla da capo ogni volta che si passa la stessa query, magari per le 20 risposte successive si usa la prima e poi si ricomputa In tutto questo: - i modelli possono essere enormememente migliorati dal passato - A100 e' una gpu del 2020, siamo a meta' 2023, come minimo il successore offrira un price/performance almeno 50/100% superiore (almeno). Ergo, in verita', per mettere chatgpt nelle ricerche davvero rilevanti ad un chatbot potrebbe servire una piccola parte di una stima simile. Va anche notato che nonostante il grande clamore di chatgpt, Google stessa e' un azienda estremamente all'avanguardia in tema di ai e che ha un portafoglio talmente grande che puo' permettersi di autoprodursi hardware custom per le proprie necessita' su licenza. |
|
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: Aug 2017
Messaggi: 1275
|
Quote:
|
|
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Sep 2009
Città: Roma
Messaggi: 385
|
Meno di un milione al giorno che comunque per mantenere un'infrastruttura è un costo enorme, ma mai quanto la sparata del titolo...
|
![]() |
![]() |
![]() |
#13 |
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 4935
|
Torno a ribadire quello che aveva dichiarato IBM,non serve dare soldi a Nvidia, AMD ed ora anche a Intel per IA,inferenza,Deep learning e affini,basta usare vecchie CPU a 8 e 16 bit (i 32 sono già troppi e inutili) opportunamente modificate per avere gli stessi risultati,se non migliori,con 1/5 e oltre di consumo energetico.
Microsoft sta percorrendo la strada giusta,anche Google con i suoi tensor core sta facendo la stessa cosa. Solo perché Giacchetto ha prodotto le straordinarie serie 4000 e le sue controparti da server,questo non vuol dire che siano efficenti,efficaci si ma non efficienti. Se si è obbiettivi e non fanboy di verdi,rossi e azzurri,sta cosa si capisce. Io non andrei a spendere 3000 euro per un tassellatore Hilti per fare buchi nella terra per piantare le piantine nell'orto. |
![]() |
![]() |
![]() |
#14 |
Senior Member
Iscritto dal: Aug 2006
Città: Valdagno
Messaggi: 4935
|
E se mi dite che IBM non ha esperienza in questo campo,allora vi dico che IBM Watson è un tipico pasticcio di carne della Louisiana che IBM ha creato nei suoi laboratori.
|
![]() |
![]() |
![]() |
#15 | |
Senior Member
Iscritto dal: Nov 2014
Messaggi: 3773
|
Quote:
![]()
__________________
Telegram > Whatsapp | Waze > Maps | iliad > vodafone | Basket > Calcio | Marquez > Rossi | Hamilton > Schumacher | futuro > passato |
|
![]() |
![]() |
![]() |
#16 |
Senior Member
Iscritto dal: May 2020
Messaggi: 736
|
Quanto spreco di risorse per avere un generatore artificiale di stronzate.
|
![]() |
![]() |
![]() |
#17 | |
Senior Member
Iscritto dal: Jul 2013
Messaggi: 596
|
Quote:
|
|
![]() |
![]() |
![]() |
#18 | |
Senior Member
Iscritto dal: Aug 2004
Città: Veneto
Messaggi: 2289
|
Quote:
![]() A loro interessa fare uscire la notizia il prima possibile, rileggere è da dilettanti.
__________________
![]() ![]() |
|
![]() |
![]() |
![]() |
#19 |
Senior Member
Iscritto dal: Oct 2003
Città: Tra la mia amata Trento e Curitiba
Messaggi: 19313
|
Tra l’altro non hanno ancora aggiornato l’articolo
__________________
PSN wiston75 | PS5 + Series X + Series S | iPad Air M2 | iPhone 15 Pro Max | Watch Series 8 | MacBook Air M3 | Monitor Samsung 4K 28" U28R550 + LG 4K 32” UL750| NAS WD MyCloudEX2 2x2TB | What's wrong????? | Una foto al dì | Che bello il Brasile del Sud! ![]() |
![]() |
![]() |
![]() |
#20 |
Member
Iscritto dal: Jul 2009
Messaggi: 42
|
Sono d'accordo con te, assolutamente inverosimile. Ciò dimostra come chi scrive tali articoli è un analfabeta funzionale.
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 03:51.