Quote:
Originariamente inviato da nebuk
Scusate, per capire:
Hanno preso un modello pre addestrato e ci hanno fatto un ulteriore tipo di addestramento con GPU di fascia bassa che ha migliorato notevolmente la resa del modello.
Nelle conclusioni del paper hanno anche aggiunto che la resa sarebbe stata superiore con GPU di fascia alta e che l'inferenza richiede molto sforzo computazionale.
Corretto? A me sembra una notizia ottima per nVidia. Hanno usato un modello pre addestrato (probabilmente con GPU nVidia), hanno implementato un nuovo addestramento con ecosistema nVidia e hanno detto che serve più potenza computazionale per avere risultati ancora migliori.
|
Sì, ma sono passati dal dire "Nvidia è fondamentale" a "Nvidia è migliore, ma si può usare anche altro"...
Nvidia ci guadagnerà comunque, ma è scesa nel livello di "necessarietà".
E, al pari, le questioni di dazi americani...