DeepSeek-R1, l'IA cinese piace alla comunità scientifica

DeepSeek-R1 rappresenta uno strumento interessante per la ricerca scientifica con prestazioni paragonabili ai leader di settore ma a costi drasticamente inferiori
di Andrea Bai pubblicata il 30 Gennaio 2025, alle 17:17 nel canale Scienza e tecnologiaDeepSeek
La comunità scientifica internazionale sta testando con un certo interesse DeepSeek-R1, il modello di intelligenza artificiale che sta attirando l'attenzione del pubblico grazie alla sua capacità competere con i migliori modelli di ragionamento come l'o1 di OpenAI in ambito matematico e scientifico.
Ciò che interessa e incuriosisce i ricercatori è l'approccio "open-weight", e cioè che le connessioni apprese tra le diverse parti del suo algoritmo sono disponibili per essere sviluppate ulteriormente. Gli scienziati che scaricano R1, o una delle versioni "distillate" molto più piccole rilasciate da DeepSeek, possono migliorarne le prestazioni nel loro campo attraverso un ulteriore addestramento. L'uso di un adeguato set di dati può consentire ai ricercatori di addestrare il modello a migliorare in compiti di codifica specifici del processo scientifico.
A riprova dell'interesse della comunità scientifica, DeepSeek-R1 ha già registrato oltre 3 milioni di download su HuggingFace dal lancio del 20 gennaio, download che comprendono sia le versioni "di base" sia le versioni personalizzate da parte di utenti indipendenti.

Nature ha raccolto il parere Huan Sun, ricercatrice di IA all'Università statale dell'Ohio, la quale osserva come le "ottime prestazioni" a basso costo di DeepSeek-R1 spingerà molti più scienziati a usare i modelli linguistici di grandi dimensioni nelle loro quotidiane attività di ricerca, senza preoccupazioni per i costi. "Quasi tutti i colleghi e collaboratori che lavorano nell'IA ne stanno parlando" ha affermato Sun.
I ricercatori coordinati da Sun hanno sottoposto DeepSeek-R1 e o1 di OpenAI a 20 compiti tratti da una suite di problemi da loro stessi creata e chiama ta ScienceAgentBench, che include l'analisi e la visualizzazione dei dati. Entrambi i modelli hanno risolto correttamente solo circa un terzo delle sfide, ma il risultato più eclatante è che l'esecuzione di R1 tramite API è costata 13 volte meno rispetto ad o1, tuttavia con un tempo di "riflessione" più lento (non è dato sapere di quanto).
Nature condivide anche l'esperienza di Frieder Simon, matematico e informatico dell'Università di Oxford, che ha messo alla prova entrambi i modelli nella creazione di una dimostrazione nel campo astratto dell'analisi funzionale, trovando l'argomentazione di R1 più promettente di quella di o1. Simon sottolinea però che entrambi i modelli commettono errori, pertanto è fondamentale che i ricercatori che ne fanno uso - a prescindere da quale scelgano - siano dotati delle competenze necessarie per saper distinguere una dimostrazione valida da una fallace.
Sono caratteristiche come l'apertura e la convenienza di DeepSeek-R1 a rappresentare i punti di maggior interesse per la comunità scientifica poiché consentono di utilizzare il modello ad un costo sensibilmente inferiore rispetto ai concorrenti, che si tratti di accedervi tramite API o gratuitamente tramite il chatbot DeepThink oppure ancora scaricare il modello ed eseguirlo in locale, gratuitamente, al contrario di quanto possibile con o1.
Questi aspetti possono potenzialmente portare ad una maggior diffusione dei modelli IA nel campo della ricerca, con la possibilità sperimentare applicazioni su misura in campi specifici e data-intensive, con il potenziale di supportare e accelerare nuove scoperte.
5 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infochatgpt, me ne sono accorto nel tempo, è una capra in ambito musicale; se gli posti 5-6 strofe di una canzone, è facile che non le riconosca.
giusto per intenderci; gli ho chiesto informazioni su questo
Getting crazy on the waltzers
But it's the life that I choose
Hey, sing about the six blade, sing about the switchback
And a torture tattoo
And I've been riding on a ghost train
Where the cars, they scream and slam
And I don't know where I'll be tonight
But I'd always tell you where I am
e non le becca manco morto, attribuendole a gruppi completamente a caso, fintanto che, dopo averlo mandato a stendere, non gli si chiede di "cercarsele su internet"; a quel punto viene finalmente illuminato.
fai la stessa identica domanda a deepseek, scazza allo stesso identico modo.
per carità, nel tirare un gruppo a caso non becca lo stesso di chatgpt, ma il tenore delle risposte scazzate è identico a quello di chatgpt.
il cambiamento è quando, dopo averlo sfanculato, gli chiedi di cercare su internet.
a quel punto fa finta di farlo e poi, con sicurezza assoluta ti dà una risposta... sbagliata come le altre.
e insiste, insiste, insiste.
io sarò malpensante ma ho la netta impressione che sto coso sia una brutta copia di chatgpt.
io sarò malpensante ma ho la netta impressione che sto coso sia una brutta copia di chatgpt.
E non sei l’unico..a pare sempre più probabile che lo sia, sapendo da dove proviene non mi stupisce più di tanto..
e insiste, insiste, insiste.
io sarò malpensante ma ho la netta impressione che sto coso sia una brutta copia di chatgpt.
Eh, hai dato una delle definizioni di cinesata.
Bisogna anche saperle usare le cose... Se "fa finta di farlo", semplicemente non stava funzionando.
Sono centinaia i post su internet che dicono che il tasto search di R1 ritorna il messaggio che il servizio non sta funzionando.
Insomma, pare che la funzione di navigazione non stia andando, per questo ti torna risposte errate.
La cosa che più stupisce è la critica di chi "è una brutta copia di chatgpt" o "è una cinesata".
Davvero? Anni che si parla di LLM e ancora non sapete minimamente cosa sia?
La ricerca internet NON è parte del modello LLM bensì un tool esterno a disposizione del modello linguistico, che nulla ha a che fare con esso.
uhm, vediamo... a entrambi chiedi "per piacere, documentati su internet".
entrambi dicono di averlo fatto però
- il primo fornisce una risposta corretta
- il secondo continua con le sue farneticazioni
Insomma, pare che la funzione di navigazione non stia andando, per questo ti torna risposte errate.
ahitè non si parlava di nessun tasto search ma di una richiesta "a testo" che è stata dichiarata effettuata; l'avevo scritto con relativa chiarezza.
Davvero? Anni che si parla di LLM e ancora non sapete minimamente cosa sia?
La ricerca internet NON è parte del modello LLM bensì un tool esterno a disposizione del modello linguistico, che nulla ha a che fare con esso.
qui non è una questione di sapere o non sapere ma di capire o non capire e tu, davvero, non hai capito. "brutta copia di chatgpt" non è riferito alla funzione di ricerca su internet ma al tenore delle risposte.
deepseek fornisce risposte che, sia nella sostanza ma soprattutto nella sostanza, sono identiche a quelle di chatgpt.
questo non succede né con gemini né con copilot.
questo detto credo che non bisogna essere prevenuti o malpensanti per farsi venure qualche dubbio circa la "genuità" di sto coso, no?credi
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".