Redazione di Hardware Upg
07-08-2024, 12:01
Link alla notizia: https://www.hwupgrade.it/news/apple/un-betatester-scopre-i-prompt-di-macos-sequoia-per-prevenire-allucinazioni-in-apple-intelligence_129634.html
Nel sistema operativo si trovano alcuni file che contengono istruzioni per l'IA generativa della Mela: l'obiettivo è quello di evitare comportamenti imprevisti o non utili per l'utente
Click sul link per visualizzare la notizia.
tommy781
07-08-2024, 12:32
Il problema è e resterà sempre che parliamo di programmi che simulano la mente umana.Sono e restano comunque vincolati dal codice che li genera e come questo articolo doimostra che lavorano solo in base agli ordini impartiti.Quando generano risposte inesatte non è per libero arbitrio ma per semplice rimescolamento delle informazioni trovate in rete. Apple e compagnia bella devono capire che se apri la rete come fonte di informaziona da cui l'intelligenza artificiale deve attingere i dati allora avrà sempre il problema delle fonti,delle inesattezze ecc...che nella rete risiedono. Possono lavorarci quanto vogliono ma se l'ia trova come informazione che una palla è cubica e per sfiga riprende proprio quella notizia la darà per valida non avendo la possibilità di comprendere cosa sia il concetto di palla e di cubico in modo astratto ma lavorando solamente su ciò che trova già protno e rielaborandolo alla bisogna.
Il problema è e resterà sempre che parliamo di programmi che simulano la mente umana.Sono e restano comunque vincolati dal codice che li genera e come questo articolo doimostra che lavorano solo in base agli ordini impartiti.Quando generano risposte inesatte non è per libero arbitrio ma per semplice rimescolamento delle informazioni trovate in rete. Apple e compagnia bella devono capire che se apri la rete come fonte di informaziona da cui l'intelligenza artificiale deve attingere i dati allora avrà sempre il problema delle fonti,delle inesattezze ecc...che nella rete risiedono. Possono lavorarci quanto vogliono ma se l'ia trova come informazione che una palla è cubica e per sfiga riprende proprio quella notizia la darà per valida non avendo la possibilità di comprendere cosa sia il concetto di palla e di cubico in modo astratto ma lavorando solamente su ciò che trova già protno e rielaborandolo alla bisogna.
mente umana? libero arbitrio? ma almeno sai come funziona un modello LLM?
UtenteHD
07-08-2024, 13:18
mente umana? libero arbitrio? ma almeno sai come funziona un modello LLM?
Grazie.
Detto questo, ho provato tra i famosi Huggichat o come si chiama, beh mi e' sembrato che abbia meno allucinazioni, non che non ne abbia e parla in maniera piu' "umana", chissa' come l'avranno addestrato.
pachainti
07-08-2024, 14:41
mente umana? libero arbitrio? ma almeno sai come funziona un modello LLM?
Parrebbe di no, è entrato in modalità supercazzola.
Se almeno leggesse e ascoltasse i seguenti link:
ChatGPT is bullshit (https://link.springer.com/article/10.1007/s10676-024-09775-5)
Is machine learning a pseudo science? (https://telegra.ph/Is-machine-learning-a-pseudo-science-12-13)
DK 8x36 - Sbagliare i tempi - Finale Stagione 8 (https://www.spreaker.com/podcast/dataknightmare-l-algoritmico-e-politico--1977562)
DK 7x10 Stronzate Artificiali (https://www.spreaker.com/episode/dk-7x10-stronzate-artificiali--52160617)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.