L'Intelligenza Artificiale di iOS 18 funzionerà offline, direttamente sul dispositivo

L'Intelligenza Artificiale di iOS 18 funzionerà offline, direttamente sul dispositivo

Apple sta lavorando per portare le capacità dell'intelligenza artificiale generativa direttamente sui dispositivi iOS, grazie a un suo large language model (LLM) che sarà in grado di funzionare offline, senza bisogno di connettersi a internet. Parola di Gurman.

di pubblicata il , alle 10:25 nel canale Apple
Apple
 

Apple sta lavorando per portare le capacità dell'intelligenza artificiale generativa direttamente sui dispositivi iOS, grazie a un suo large language model (LLM) che sarà in grado di funzionare offline, senza bisogno di connettersi a internet. È quanto riferisce Mark Gurman di Bloomberg, confermando indiscrezioni circolate nelle scorse settimane sui piani di Cupertino per integrare funzionalità AI avanzate in iOS 18, la prossima versione del sistema operativo per iPhone che vedrà la luce nel 2024.

L'AI di Apple funzionerà anche offline

A differenza dei concorrenti che si basano su modelli di AI ospitati sul cloud, l'approccio "on-device" di Apple offrirebbe alcuni vantaggi ma anche delle limitazioni. Se da un lato le risposte dell'IA locale potrebbero risultare più immediate, dall'altro potrebbero esserci lacune nelle capacità rispetto ai sistemi basati su cloud. Per colmare queste mancanze, quando necessario, Apple potrebbe chiedere il consenso agli utenti per connettersi a internet e sfruttare tecnologie AI di terze parti come quelle di Google, con cui la società era in trattativa per l'integrazione del motore Gemini.

Il vantaggio principale dell'IA on-device risiederebbe però nella maggiore tutela della privacy degli utenti, uno dei capisaldi di Apple. Tutte le richieste e le risposte rimarrebbero infatti confinati sul dispositivo, senza essere inviate ai server remoti come avviene con i sistemi cloud-based. Secondo Gurman, per il momento Cupertino sembra concentrarsi sullo sviluppo di funzionalità AI mirate ad attività quotidiane utili per gli utenti, piuttosto che puntare a un assistente generico stile ChatGPT. Maggiori dettagli arriveranno presumibilmente in occasione della WWDC 2024, la consueta conferenza sviluppatori di Apple dove saranno presentate le prime versioni beta di iOS 18, macOS, watchOS e gli altri sistemi operativi aggiornati.

Questo interesse di Apple per l'intelligenza artificiale locale arriva anche dopo l'accordo stretto con Shutterstock per l'addestramento dei suoi modelli di AI utilizzando milioni di immagini della piattaforma. Un altro tassello nella strategia di Cupertino per l'implementazione di funzionalità generative di nuova generazione sui suoi prodotti e servizi.

L'approccio offline di Apple all'IA generativa potrebbe rivelarsi un vantaggio competitivo rispetto ai concorrenti, coniugando prestazioni al vertice con l'attenzione alla privacy su cui l'azienda ha sempre puntato. Resterà da vedere quali saranno le reali applicazioni e i limiti di questa tecnologia quando arriverà sui dispositivi degli utenti con il rilascio di iOS 18 il prossimo anno.

14 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
TorettoMilano22 Aprile 2024, 10:30 #1
curioso in merito allo sviluppo, se si dovesse dimostrare funzionale offline immagino verrebbe preferito da molte aziende. diverse hanno bandito l'uso dell'IA appunto per la condivisione involontaria di dati da parte di dipendenti
Lexan22 Aprile 2024, 10:41 #2

Apple sta lavorando per portare le capacità dell'intelligenza artificiale generativa direttamente sui dispositivi iOS, grazie a un suo large language model (LLM) che sarà in grado di funzionare offline, senza bisogno di connettersi a internet. Parola di Gurman.


Se funzionerà quanto meno come chat GPT allora sarà già un buon punto di partenza.
Se invece funzionerà come SIRI che non capisce un caxxo allora lasciamo perdere....
io78bis22 Aprile 2024, 10:51 #3
Originariamente inviato da: Lexan
Se funzionerà quanto meno come chat GPT allora sarà già un buon punto di partenza.
Se invece funzionerà come SIRI che non capisce un caxxo allora lasciamo perdere....

Come chatGPT è impossibile in locale, per forza di cose per farlo girare devono limitare la conoscenza che si porta dietro quindi sarà ultra ottimizzato per un'interazione uomo/smartphone
DrSto|to22 Aprile 2024, 11:05 #4
Originariamente inviato da: io78bis
Come chatGPT è impossibile in locale, per forza di cose per farlo girare devono limitare la conoscenza che si porta dietro quindi sarà ultra ottimizzato per un'interazione uomo/smartphone

Secondo me un IA onniscente non serve davvero. Ciò che serve è un assistente che sappia fare l'assistente conversando naturalmente, e che le app predispongano un accesso per l'IA alle proprie funzioni.
Il problema principale sarà una localizzazione di qualità.
io78bis22 Aprile 2024, 11:14 #5
Originariamente inviato da: DrSto|to
Secondo me un IA onniscente non serve davvero. Ciò che serve è un assistente che sappia fare l'assistente conversando naturalmente, e che le app predispongano un accesso per l'IA alle proprie funzioni.
Il problema principale sarà una localizzazione di qualità.


soprattutto sull'ultima frase
demon7722 Aprile 2024, 11:20 #6
Io proprio non capisco come possa funzionare "OFFLINE".
Le AI per lavorare decentemente, a parte la potenza computazionale, hanno bisogno di tera e tera di dati da cui attingere..

Se sono offline da cosa attingono?
!fazz22 Aprile 2024, 11:51 #7
Originariamente inviato da: demon77
Io proprio non capisco come possa funzionare "OFFLINE".
Le AI per lavorare decentemente, a parte la potenza computazionale, hanno bisogno di tera e tera di dati da cui attingere..

Se sono offline da cosa attingono?


i tera di dati servono per la taratura del modello una volta tarato il modello diventa una matriciona di numeri grande si ma molto più piccola che è possibile salvare sul dispositivo ed eseguire offline

se prendiamo ad esempio whisper (modello di open ai che fai speech to text) il modello base ha 74 milioni di parametri e occupa 1 GB mentre quello più esteso di parametri ne ha 1550 milioni e occupa 10GB di memoria

tagli che si possono essere tranquillamente gestibili in offline
demon7722 Aprile 2024, 12:51 #8
Originariamente inviato da: !fazz
i tera di dati servono per la taratura del modello una volta tarato il modello diventa una matriciona di numeri grande si ma molto più piccola che è possibile salvare sul dispositivo ed eseguire offline

se prendiamo ad esempio whisper (modello di open ai che fai speech to text) il modello base ha 74 milioni di parametri e occupa 1 GB mentre quello più esteso di parametri ne ha 1550 milioni e occupa 10GB di memoria

tagli che si possono essere tranquillamente gestibili in offline


Questo rende la cosa molto piu sensata.. ma quindi è qualcosa del genere quello che si vuole fare sui "prossimi PC"?
marcram22 Aprile 2024, 13:06 #9
Originariamente inviato da: demon77
Questo rende la cosa molto piu sensata.. ma quindi è qualcosa del genere quello che si vuole fare sui "prossimi PC"?

Dipende...
Alcuni vogliono fare questo, ma hai bisogno di memoria e potenza tendenzialmente superiori a quelli attuali.
E per far girare IA con compiti specifici, non generaliste...

Altri invece (come molte pubblicità di smartphone di oggi), sono solo client con accesso alle IA online...
demonsmaycry8422 Aprile 2024, 14:39 #10
oramai le specifiche di potenza minima per un IA locale è stato fissato...il resto ho sospetto che lo inizieranno a vendere dietro abbonamento...
penso che apple debba spingere sulla traduzione, tutta la parte foto ed immagini e sicuramente anche la parte auto andrebbe potenziata...
un lavoro che durerà anni

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^