PDA

View Full Version : Grok-1.5, l'IA di Elon Musk diventa molto più potente: tutte le novità


Redazione di Hardware Upg
29-03-2024, 10:31
Link alla notizia: https://www.hwupgrade.it/news/web/grok-15-l-ia-di-elon-musk-diventa-molto-piu-potente-tutte-le-novita_125733.html

xAI ha svelato Grok-1.5, una significativa evoluzione del suo modello linguistico di grandi dimensioni (LLM). L'aggiornamento promette di offrire una memoria a breve termine 16 volte superiore, oltre a miglioramenti nelle capacità di ragionamento matematico e programmazione.

Click sul link per visualizzare la notizia.

TorettoMilano
29-03-2024, 10:42
e faccelo provare questo agGROKkio :D

io78bis
29-03-2024, 11:17
Non so quanto sia vera questa favola del consumo energetico delle IA ma, nel caso lo sia direi che è giusto che vengano usate solo dietro piani a pagamento in modo che si evitino gli usi poco utili.

UtenteHD
29-03-2024, 13:51
Se parli di consumi, se leggi i consumi delle attuali IA offline, dai dati tecnici non le vedo cosi' energivore, certo devi moltiplicare il tutto per migliaia di persone ecc.. ma non le vedo comunque cosi' apocalittiche.

Per il discorso dell'uso altamente inutile, si hai ragione, io se la uso e' solo se necessario per correggere una frase importante, aiutarmi in qualcosa del genere ecc.. (per me e' importante), se salta fuori che il 90% delle persone le usa inutilmente beh allora si, con mio dispiacere mettetele a pagamento, cosi' non ci saranno sprechi altamente inutili di risorse. Oppure se a pagamento, la Gente sara' costretta a prendersele offline (magari per lavoro nella privacy conviene) cosi' la bolletta elettrica, l'HW, ecc.. se la pagano Loro ed imparano ad usarle con cervello e parsimonia.

LMCH
29-03-2024, 20:45
Se parli di consumi, se leggi i consumi delle attuali IA offline, dai dati tecnici non le vedo cosi' energivore, certo devi moltiplicare il tutto per migliaia di persone ecc.. ma non le vedo comunque cosi' apocalittiche.

Devi anche considerare i costi per la "costruzione" del modello, quelli sono molto più alti e richiedono l'intervento di tester e validatori per verificare se ci sono nuove "sorprese" legate ai dati utilizzati ed apportare correzioni. Più cresce il modello e più i costi aumentano. Non è un caso se gran parte delle centinaia di milioni di dollari di finanziamento di Microsoft ad OpenAI erano sotto forma di tempo e risorse di calcolo su Azure.

Inoltre per far girare un modello "semplice" come Stable Diffusion, servono MINIMO una GPU con 4GB di ram, ed un processore "potente" con almeno 16GB.
Per modelli più avanzati serve molto di più (e questo come requisiti MINIMI).