Redazione di Hardware Upg
07-02-2025, 06:11
Link alla notizia: https://www.hwupgrade.it/news/web/50-dollari-16-gpu-nvidia-h100-e-mezz-ora-di-tempo-il-rivale-di-chatgpt-e-servito_135402.html
Un team di ricercatori di Stanford e dell'Università di Washington è riuscito ad addestrare un modello di "ragionamento" IA con capacità simili, se non migliori, di OpenAI o1 con un esborso inferiore ai 50 dollari.
Click sul link per visualizzare la notizia.
"Dobbiamo amputare il mignolo sinistro."
*zack*
"ASPETTA (https://www.youtube.com/watch?v=GuQdQkilEck&ab_channel=RitaD%27Aniello) - Alla mia sinistra o alla sua?"
*zack*
OpenAI ha accusato DeepSeek di aver distillato informazioni dai suoi modelli per costruire un concorrente, violando i suoi termini di servizio.
Quindi anche questi ricercatori hanno violato i termini di servizio...
Non penso, i dati non sono stati usati per creare un modello in competizione con Google, solo a titolo di ricerca.
https://ai.google.dev/gemini-api/terms
In ogni caso, curiosità: se con 16 H100 ci vogliono 26 minuti, con una singola 3090 ci vuole circa una giornata intera con la GPU a macinare per il finetuning di un modello simile con gli stessi dati e procedure.
Un team di ricercatori di Stanford e dell'Università di Washington è riuscito ad addestrare un modello di "ragionamento" IA con capacità simili, se non migliori, di OpenAI o1 con un esborso inferiore ai 50 dollari
Cioè i ricercatori hanno lavorato gratuitamente? Oppure ricevono uno stipendio inferiore degli addetti alle pulizie?
È solo il costo di affitto delle GPU, probabilmente sulla falsariga dello stesso valore dato da DeepSeek per R1.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.