Redazione di Hardware Upg
17-07-2025, 13:01
Link alla notizia: https://www.hwupgrade.it/news/web/modelli-linguistici-fino-a-3-volte-piu-veloci-non-serve-avere-una-mega-gpu_141232.html
Tre nuovi algoritmi permettono di accelerare l'inferenza dei modelli linguistici fino a 2,8 volte, senza perdita di qualitą e anche con vocabolari diversi. Sviluppati da Weizmann Institute, Intel Labs e d-Matrix, sono gią integrati in Hugging Face Transformers, rendendo la speculative decoding pił accessibile e flessibile per sviluppatori e ricercatori.
Click sul link per visualizzare la notizia.
Tre nuovi algoritmi permettono di accelerare l'inferenza dei modelli linguistici fino a 2,8 volte, senza perdita di qualitą e anche con vocabolari diversi. Sviluppati da Weizmann Institute, Intel Labs e d-Matrix, sono gią integrati in Hugging Face Transformers, rendendo la speculative decoding pił accessibile e flessibile per sviluppatori e ricercatori.
Click sul link per visualizzare la notizia.