Quote:
Originariamente inviato da LMCH
2)
Il costo computazionale è già enorme e continua a crescere, specialmente in termini di energia consumata, sarebbe interessante capire quanto sia sostenibile.
|
Sono usciti nuovi algoritmi di training tipo LoRa, che permetto di abbattere in molti contesti il costo computazionale di svariati ordini di grandezza. Ciò non toglie che la quantità di energia richiesta è comunque enorme.
Quote:
Originariamente inviato da LMCH
3)
Gli attuali sistemi basati su LLM sono inefficienti, ci sono architetture alternative che stanno emergendo (le Tsetlin Machine) che una volta raggiunta la massa critica in termini di sviluppo hardware e teoretico potrebbero spazzare via la necessità di costruire così tante nuove fab, causando un danno economico a chi si è già esposto finanziariamente per realizzarle, a chi deve le alte quotazioni in borsa alla bolla delle AI basate su LLM ed a chi ha acquistato quelle azioni pensando che sarebbero salite ancora.
|
Interessante, queste non le conoscevo, mi informo