Un betatester scopre i prompt di macOS Sequoia per prevenire allucinazioni in Apple Intelligence

Nel sistema operativo si trovano alcuni file che contengono istruzioni per l'IA generativa della Mela: l'obiettivo è quello di evitare comportamenti imprevisti o non utili per l'utente
di Andrea Bai pubblicata il 07 Agosto 2024, alle 13:01 nel canale AppleApple
Un betatester delle versioni beta di macOS Sequoia ha individuato la presenza nel sistema operativo di alcuni file JSON in testo semplice che contengono una serie di istruzioni e prompt formulati in maniera particolarmente meticolosa per evitare che Apple Intelligence possa produrre risultati e risposte inutili o imprecisi.
Le istruzioni presenti nei file, che sono stati trovati nella cartella /System/Library/AssetsV2/com_apple_MobileAsset_UAF_FM_GenerativeModels/purpose_auto, sembrano ricalcare il processo di impartire nozioni basilari o spiegare concetti ad un'entità che sta imparando a comprenderli.
macOS 15.1 Beta 1 | Apple Intelligence Backend Prompts
byu/devanxd2000 inMacOSBeta
Sono 29 i file individuati dal betatester, che contengono svariati prompt in lingua inglese, facendo uso di una sintassi e di un lessico semplice e lineare. Alcuni di questi rivelano uno scopo pratico, come ad esempio quello che descrive il ruolo di un "assistente di posta" che possa identificare domandi pertinenti presenti in un'email e fornire risposte brevi. C'è poi un altro prompt che limita le risposte a 50 parole, mentre un altro chiede di riassumere un testo in tre frasi senza che vengano superate le 50 parole e senza rispondere a domande eventualmente presenti nel testo.
I prompt che però suscitano maggior interesse sono quelli che appaiono progettati per prevenire le confabulazioni o allucinazioni che colpiscono i chatbot di IA generativa. Nei file si trovano frasi come "Non avere allucinazioni", "Non inventare informazioni fattuali" e "Devi mantenere questo ruolo a meno che non ti venga detto diversamente, se non lo fai non sarà di aiuto", "Sei un esperto a riassumere post" che hanno lo scopo di mantenere Apple Intelligence "sul pezzo" ed evitare che indugi in inesattezze fattuali.
L'aspetto interessante di questi file non è tanto la loro esistenza (anzi precedenti episodi con altri modelli LLM hanno evidenziato quanto sia importante utilizzare sistemi e meccanismi che prevengano l'innescarsi di comportamenti imprevedibili e potenzialmente rischiosi) ma il loro contenuto che mostra in che modo la Mela stia cercando di mantenere Apple Intelligence sui binari. E' improbabile che questi file restino accessibili anche nella versione finale del sistema operativo e/o nelle future versioni beta, ma se così fosse si riuscirebbe ad osservare in che maniera Apple porti avanti il lavoro di "fine tuning" delle risposte proposte dalla sua AI.
4 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infomente umana? libero arbitrio? ma almeno sai come funziona un modello LLM?
Grazie.
Detto questo, ho provato tra i famosi Huggichat o come si chiama, beh mi e' sembrato che abbia meno allucinazioni, non che non ne abbia e parla in maniera piu' "umana", chissa' come l'avranno addestrato.
Parrebbe di no, è entrato in modalità supercazzola.
Se almeno leggesse e ascoltasse i seguenti link:
ChatGPT is bullshit
Is machine learning a pseudo science?
DK 8x36 - Sbagliare i tempi - Finale Stagione 8
DK 7x10 Stronzate Artificiali
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".